Kluczowe terminy dotyczące zarządzania sztuczną inteligencją

 

Dziedzina sztucznej inteligencji szybko ewoluuje w różnych sektorach i branżach, pozostawiając specjalistów ds. technologicznych i zarządzania bez wspólnej terminologii używanej w zarządzaniu sztuczną inteligencją.

Nawet wyszukiwanie definicji “sztucznej inteligencji” zwraca szereg definicji i przykładów. Od filmowych, takich jak HAL 9000 z “2001: Odysei kosmicznej”, przez kreatywne, takie jak Midjourney i sztuka generatywna DALL-E, po powszechne, takie jak autokorekta wiadomości e-mail i mapy mobilne, przypadki użycia i zastosowania sztucznej inteligencji wciąż rosną i rozszerzają się na wszystkie aspekty życia.

Dzięki zgodzie Międzynarodowego Stowarzyszenia Specjalistów ds. Prywatności (IAPP) udostępniamy wszystkim osobom zainteresowanym rozwojem swoich kompetencji w obszarze sztucznej inteligencji Kluczowe terminy dotyczące zarządzania sztuczną inteligencją” opracowane przez IAPP. Niniejszy glosariusz pierwotnie ukazał się w Centrum Zasobów IAPP i został udostępniony za ich zgodą.

Tłumaczenie zostało wykonane przez Langas Regtech zostało opublikowane w 20 lipca 2023 roku.

 

Niniejszy glosariusz, opracowany w oparciu o liczne materiały, ma na celu zapewnienie zwięzłych, ale zniuansowanych definicji i wyjaśnień niektórych z najpopularniejszych terminów związanych obecnie ze sztuczną inteligencją.

Accountability / Rozliczalność

The obligation and responsibility of the creators, operators and regulators of an AI system to ensure the system operates in a manner that is ethical, fair, transparent and compliant with applicable rules and regulations (see fairness and transparency).

Accountability ensures that actions, decisions and outcomes of an AI system can be traced back to the entity responsible for it.

Obowiązek i odpowiedzialność twórców, operatorów i organów regulacyjnych systemu sztucznej inteligencji w celu zapewnienia, że system działa w sposób etyczny, uczciwy, przejrzysty i zgodny z obowiązującymi zasadami i przepisami (zob. uczciwość i przejrzystość).

Rozliczalność zapewnia, że działania, decyzje i wyniki systemu sztucznej inteligencji można prześledzić wstecz do podmiotu za nie odpowiedzialnego.

 

Active learning / Aktywne uczenie

A subfield of AI and machine learning where an algorithm can select some of the data it learns from. Instead of learning from all the data it is given, an active learning model requests additional data points that will help it learn the best.

→ Also called query learning

Poddziedzina sztucznej inteligencji i uczenia maszynowego, w której algorytm może wybrać część danych, z których się uczy. Zamiast uczyć się na podstawie wszystkich podanych danych, model aktywnego uczenia się żąda dodatkowych próbek danych, które pomogą mu uczyć się najlepiej.

→ Nazywane również uczeniem z zapytań

 

AI governance / Zarządzanie Sztuczną Inteligencją

A system of policies, practices and processes organizations implement to manage and oversee their use of AI technology and associated risks to ensure the AI aligns with an organization’s objectives, is developed and used responsibly and ethically, and complies with applicable legal requirements. System zasad, praktyk i procesów wdrażanych przez organizacje w celu zarządzania i nadzorowania wykorzystania technologii opartych na sztucznej inteligencji i związanego z tym ryzyka, aby zapewnić, że sztuczna inteligencja jest zgodna z celami organizacji, jest rozwijana i wykorzystywana w sposób odpowiedzialny i etyczny oraz jest zgodna z obowiązującymi wymogami prawnymi.

 

Algorithm / Algorytm

 

A computational procedure or set of instructions and rules designed to perform a specific task, solve a particular problem or produce a machine learning or AI model

(see machine learning model)

Procedura obliczeniowa lub zestaw instrukcji i reguł zaprojektowanych w celu wykonania określonego zadania, rozwiązania określonego problemu lub stworzenia modelu uczenia maszynowego lub sztucznej inteligencji

(zob. model uczenia maszynowego).

 

Artificial general intelligence / Ogólna sztuczna inteligencja

 

AI that is considered to have human-level intelligence and strong generalization capability to achieve goals and carry out a variety of tasks in different contexts and environments.

AGI is still considered a theoretical field of research and contrasted with “narrow” AI, which is used for specific tasks or problems.

→ Acronym: AGI

Sztuczna inteligencja, która jest uważana za posiadającą inteligencję na poziomie ludzkim i silną zdolność uogólniania do osiągania celów i wykonywania różnorodnych zadań w różnych kontekstach i środowiskach.

Ogólna sztuczna inteligencja (spotyka się też określenie “silna” – tłum.) jest nadal nadal uważana za teoretyczny obszar badań i przeciwstawiana “wąskiej” (lub “słabej” – tłum.) sztucznej inteligencji, która jest wykorzystywana do konkretnych zadań lub problemów. do konkretnych zadań lub problemów.

→ Akronim: AGI

 

Artificial intelligence / Sztuczna inteligencja

 

Artificial intelligence is a broad term used to describe an engineered system where machines learn from experience, adjusting to new inputs (see input data) and potentially performing tasks previously done by humans. More specifically, it is a field of computer science dedicated to simulating intelligent behavior in computers.

It may include automated decision-making.

→ Acronym: AI

Sztuczna inteligencja to szeroki termin używany do opisania systemu inżynieryjnego, w którym maszyny uczą się na podstawie doświadczenia, dostosowując się do nowych danych wejściowych i potencjalnie wykonując zadania wcześniej wykonywane przez ludzi. Mówiąc dokładniej, jest to dziedzina informatyki poświęcona symulowaniu inteligentnych zachowań w komputerach.

Może obejmować zautomatyzowane podejmowanie decyzji.

→ Akronim: AI

 

Automated decision-making / Zautomatyzowane podejmowanie decyzji

 

The process of making a decision by technological means without human involvement Proces podejmowania decyzji za pomocą środków technologicznych bez udziału człowieka.

 

Bias / Stronniczość

 

There are several types of bias within the AI field.

  • Computational bias is a systematic error or deviation from the true value of a prediction that originates from a model’s assumptions or the data itself (see input data).
  • Cognitive bias refers to inaccurate individual judgment or distorted thinking, while societal bias leads to systemic prejudice, favoritism, and/or discrimination in favor of or against an individual or group.

Bias can impact outcomes and pose a risk to individual rights and liberties.

W dziedzinie sztucznej inteligencji istnieje kilka rodzajów stronniczości (uprzedzeń):

  • Stronniczość obliczeniowa to systematyczny błąd lub odchylenie od prawdziwej wartości prognozy, które wynika z założeń modelu lub samych danych (patrz dane wejściowe).
  • Stronniczość poznawcza odnosi się do niedokładnej indywidualnej oceny lub zniekształconego myślenia, podczas gdy stronniczość społeczna prowadzi do systemowych uprzedzeń, faworyzowania i/lub dyskryminacji na korzyść lub przeciwko jednostce lub grupie.

Stronniczość może wpływać na wyniki i stanowić zagrożenie dla praw i wolności jednostki.

 

Bootstrap aggregating / Agregacją metodą bootstrap

 

A machine learning method that aggregates multiple versions of a model (see machine learning model) trained on random subsets of a data set. This method aims to make a model more stable and accurate.

→ Sometimes referred to as bagging

Metoda uczenia maszynowego, która agreguje wiele wersji modelu (zob. model uczenia maszynowego) wytrenowanych na losowych podzbiorach danych. Metoda ta ma na celu uczynienie modelu bardziej stabilnym i dokładnym.

→ Czasami określana jako bagging

 

Chatbot / Czatbot

 

A form of AI designed to simulate human-like conversations and interactions that uses natural language processing to understand and respond to text or other media.

Because chatbots are often used for customer service and other personal help applications, chatbots often ingest users’ personal information.

Forma sztucznej inteligencji zaprojektowana do symulowania rozmów i interakcji podobnych do ludzkich, która wykorzystuje przetwarzanie języka naturalnego do rozumienia i reagowania na tekst lub inne media.

Ponieważ chatboty są często wykorzystywane do obsługi klienta i innych aplikacji pomocy osobistej, często gromadzą one dane osobowe użytkowników.

 

Classification model (Classifiers) / Model klasyfikacyjny (klasyfikatory)

 

A type of model (see machine learning model) used in machine learning that is designed to take input data and sort it into different categories or classes. Rodzaj modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który jest przeznaczony do sortowania na różne kategorie lub klasy danych wejściowych.

 

Clustering (or clustering algorithms) / Klastrowanie (lub algorytmy klastrowania)

 

An unsupervised machine learning method where patterns in the data are identified and evaluated, and data points are grouped accordingly into clusters based on their similarity. Metoda maszynowego uczenia nienadzorowanego, w której wzorce w danych są identyfikowane i oceniane, a próbki danych są odpowiednio grupowane w klastry na podstawie ich podobieństwa.

 

Computer vision / Widzenie komupterowe

 

A field of AI that enables computers to process and analyze images, videos and other visual inputs. Dziedzina sztucznej inteligencji, która umożliwia komputerom przetwarzanie i analizowanie obrazów, filmów i innych danych wizualnych.

 

Conformity assesment / Ocena zgodności

 

An analysis, often performed by a third-party body, on an AI system to determine whether requirements, such as establishing a risk management system, data governance, record-keeping, transparency and cybersecurity practices have been met Analiza, często przeprowadzana przez organ zewnętrzny, dotycząca systemu sztucznej inteligencji w celu ustalenia, czy spełniono wymagania, takie jak ustanowienie systemu zarządzania ryzykiem, zarządzanie danymi, prowadzenie dokumentacji, przejrzystość i praktyki w zakresie cyberbezpieczeństwa

 

Contestability / Możliwość sprzeciwu

 

The principle of ensuring that AI systems and their decision-making processes can be questioned or challenged. This ability to contest or challenge the outcomes, outputs and/or actions of AI systems can help promote transparency and accountability within AI governance.

Zasada zapewnienia możliwości kwestionowania lub podważania systemów sztucznej inteligencji i ich procesów decyzyjnych. Zdolność do kwestionowania lub podważania wyników, rezultatów i/lub działań systemów AI może pomóc w promowaniu przejrzystości i odpowiedzialności w ramach zarządzania AI.

 

Corpus / Korpus

 

A large collection of texts or data that a computer uses to find patterns, make predictions or generate specific outcomes.

The corpus may include structured or unstructured data and cover a specific topic or a variety of topics.

Duży zbiór tekstów lub danych wykorzystywanych do znajdowania wzorców, tworzenia prognoz lub generowania określonych wyników.

Korpus może zawierać ustrukturyzowane lub nieustrukturyzowane dane i obejmować określony temat lub różne tematy

 

Decision tree / Drzewo decyzyjne

 

A type of supervised learning model used in machine learning (see also machine learning model) that represents decisions and their potential consequences in a branching structure. Przykład modelu uczenia nadzorowanego (patrz model uczenia maszynowego), który reprezentuje decyzje i ich potencjalne konsekwencje w strukturze rozgałęzionej/drzewiastej.

 

Deep learning / Uczenie głębokie

 

A subfield of AI and machine learning that uses artificial neural networks. Deep learning is especially useful in fields where raw data needs to be processed, like image recognition, natural language processing and speech recognition. Poddziedzina sztucznej inteligencji i uczenia maszynowego, która wykorzystuje sztuczne sieci neuronowe.

Uczenie głębokie jest szczególnie przydatne w dziedzinach, w których konieczne jest przetwarzanie surowych danych, takich jak rozpoznawanie obrazów, przetwarzanie języka naturalnego i rozpoznawanie mowy.

 

Discriminative model / Model dyskryminatywny

 

A type of model (see also machine learning model) used in machine learning that directly maps input features to class labels and analyzes for patterns that can help distinguish between different classes.

It is often used for text classification tasks, like identifying the language of a piece of text. Examples are traditional neural networks, decision trees and random forest.

Typ modelu (patrz model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który bezpośrednio mapuje cechy wejściowe na etykiety klas i analizuje wzorce, które mogą pomóc w rozróżnieniu różnych klas.

Jest często używany do zadań klasyfikacji tekstu, takich jak identyfikacja języka fragmentu tekstu. Przykładami są tradycyjne sieci neuronowe, drzewa decyzyjne i lasy losowe.

 

Entropy / Entropia

 

The measure of unpredictability or randomness in a set of data used in machine learning.

A higher entropy signifies greater uncertainty in predicting outcomes.

Miara nieprzewidywalności lub losowości w zestawie danych wykorzystywanych w uczeniu maszynowym.

Wyższa entropia oznacza większą niepewność w przewidywaniu wyników.

 

Expert system / System ekspercki

 

A form of AI that draws inferences from a knowledge base to replicate the decision-making abilities of a human expert within a specific field, like a medical diagnosis. Forma sztucznej inteligencji, która korzysta z reguł i informacji stworzonych przez ekspertów dziedzinowych zapisanych w bazie wiedzy w celu odtworzenia zdolności decyzyjnych ludzkiego eksperta w określonej dziedzinie, takiej jak diagnoza medyczna.

 

Explainability / Wyjaśnialność (XAI)

 

The ability to describe or provide sufficient information about how an AI system generates a specific output or arrives at a decision in a specific context to a predetermined addressee. XAI is important in maintaining transparency and trust in AI.
Zdolność do opisania lub dostarczenia wystarczających informacji o tym, w jaki sposób system sztucznej inteligencji generuje określone dane wyjściowe lub podejmuje decyzję w określonym kontekście dla z góry określonego adresata. XAI jest ważne dla utrzymania przejrzystości i zaufania do sztucznej inteligencji.

 

Exploratory data analysis / Eksploracyjna analiza danych

 

Data discovery process techniques that take place before training a machine learning model in order to gain preliminary insights into a data set, such as identifying patterns, outliers, and anomalies and finding relationships among variables.
Techniki procesu odkrywania danych, które mają miejsce przed uczeniem modelu uczenia maszynowego w celu uzyskania wstępnego wglądu w zestaw danych, takich jak identyfikacja wzorców, wartości odstających i anomalii oraz znajdowanie relacji między zmiennymi.

 

Fairness / Niedyskryminacja

 

An attribute of an AI system that ensures equal and unbiased treatment of individuals or groups in its decisions and actions in a consistent, accurate manner.

It means the AI system’s decisions should not be affected by certain sensitive attributes like race, gender or religion.

Cecha systemu sztucznej inteligencji, która zapewnia równe i bezstronne traktowanie osób lub grup w swoich decyzjach i działaniach w spójny, dokładny sposób.

Oznacza to, że na decyzje systemu sztucznej inteligencji nie powinny mieć wpływu pewne wrażliwe cechy, takie jak rasa, płeć lub religia.

 

Federated learning / Uczenie rozproszone

 

A machine learning method that allows models (see also machine learning model) to be trained on the local data of multiple edge devices or servers.

Only the updates of the local model, not the training data itself, are sent to a central location where they get aggregated into a global model — a process that is iterated until the global model is fully trained.

Metoda uczenia maszynowego, która umożliwia trenowanie modeli (patrz  model uczenia maszynowego) na danych lokalnych wielu urządzeń końcowych lub serwerów.

Tylko aktualizacje modelu lokalnego, a nie same dane szkoleniowe, są wysyłane do centralnej lokalizacji, gdzie są agregowane w model globalny – proces ten jest powtarzany, dopóki model globalny nie zostanie w pełni przeszkolony.

 

Foundation model / Model bazowy

 

A large-scale, pretrained model for AI capabilities, such as language (see also large language model), vision, robotics, reasoning, search or human interaction, that can function as the base for other applications.

The model is trained on extensive and diverse data sets.

Wieloskalowy, wstępnie wytrenowany model dla możliwości sztucznej inteligencji, takich jak język (patrz także duży model językowy), wizja, robotyka, rozumowanie, wyszukiwanie lub interakcja międzyludzka, który może funkcjonować jako baza dla innych aplikacji.

Model jest trenowany na obszernych i zróżnicowanych zestawach danych.

 

Generalization / Uogólnianie

 

The ability of a model (see machine learning model) to understand the underlying patterns and trends in its training data and apply what it has learned to make predictions or decisions about new, unseen data. Zdolność modelu (patrz model uczenia maszynowego) do zrozumienia podstawowych wzorców i trendów w danych szkoleniowych i zastosowania tego, czego się nauczył, do przewidywania lub podejmowania decyzji dotyczących nowych, niewidocznych danych.

 

Generative AI / Generatywna Sztuczna Inteligencja

 

A field of AI that uses machine learning models trained on large data sets to create new content, such as written text, code, images, music, simulations and videos.

These models are capable of generating novel outputs based on input data or user prompts.

Dziedzina sztucznej inteligencji, która wykorzystuje modele uczenia maszynowego wyszkolone na dużych zbiorach danych do tworzenia nowych treści, takich jak tekst pisany, kod, obrazy, muzyka, symulacje i filmy.

Modele te są w stanie generować nowe wyniki w oparciu o dane wejściowe lub podpowiedzi użytkownika.

 

Greedy algorithms / Zachłanne algorytmy

 

A type of algorithm that makes the optimal choice to achieve an immediate objective at a particular step or decision point, based on the available information and without regard for the longer-term optimal solution. Rodzaj algorytmu, który dokonuje optymalnego wyboru na danym etapie lub w danym punkcie decyzyjnym, w celu osiągnięcia natychmiastowego celu, w oparciu jedynie o dostępne informacje i bez względu na długoterminowe optymalne rozwiązanie.

 

Hallucinations / Halucynacje

 

Instances where a generative AI model creates content that either contradicts the source or creates factually incorrect output under the appearance of fact. Przypadki, w których model generatywny sztucznej inteligencji tworzy treści, które są sprzeczne ze źródłem lub tworzą niepoprawne dane wyjściowe pod pozorem faktów.

 

Inference / Predykcja

 

A type of machine learning process where a trained model (see also machine learning model) is used to make predictions or decisions based on input data. Rodzaj procesu uczenia maszynowego, w którym wyszkolony model (patrz także model uczenia maszynowego) jest wykorzystywany do przewidywania lub podejmowania decyzji na podstawie danych wejściowych.

 

Input data / Dane wejściowe

 

Data provided to or directly acquired by a learning algorithm or model (see machine learning model) for the purpose of producing an output.

It forms the basis upon which the machine learning model will learn, make predictions and/or carry out tasks.

Dane dostarczane lub bezpośrednio pozyskiwane przez algorytm lub model uczący się (zob. model uczenia maszynowego) w celu uzyskania danych wyjściowych.

Stanowią one podstawę, na której model będzie się uczył, tworzył prognozy i/lub wykonywał zadania.

 

Large language model / Duży model językowy (LLM)

 

A form of AI that utilizes deep learning algorithms to create models (see also machine learning model) trained on massive text data sets to analyze and learn patterns and relationships among characters, words and phrases.

There are generally two types of LLMs: generative models that make text predictions based on the probabilities of word sequences learned from its training data (see also generative AI) and discriminative models that make classification predictions based on probabilities of data features and weights learned from its training data (see also discriminative model). The term “large” generally refers to the model’s capacity measured by the number of parameters.

Forma sztucznej inteligencji, która wykorzystuje algorytmy głębokiego uczenia do tworzenia modeli (patrz także model uczenia maszynowego) szkolonych na ogromnych zbiorach danych tekstowych w celu analizowania i uczenia się wzorców i relacji między znakami, słowami i frazami.

Zasadniczo istnieją dwa rodzaje LLM: modele generatywne, które przewidują tekst na podstawie prawdopodobieństw sekwencji słów wyuczonych z danych szkoleniowych (patrz także generatywna sztuczna inteligencja) oraz modele dyskryminatywne, które przewidują klasyfikację na podstawie prawdopodobieństw cech danych i wag wyuczonych z danych szkoleniowych (patrz także model dyskryminacyjny). Termin “duży” ogólnie odnosi się do pojemności modelu mierzonej liczbą parametrów.

 

Machine learning / Uczenie maszynowe (ML)

 

A subfield of AI involving algorithms that enable computer systems to iteratively learn from and then make decisions, inferences or predictions based on data (see input data). These algorithms build a model from training data to perform a specific task on new data without being explicitly programmed to do so.

Machine learning implements various algorithms that learn and improve by experience in a problem-solving process that includes data cleansing, feature selection, training, testing and validation.

Companies and government agencies deploy machine learning algorithms for tasks such as fraud detection, recommender systems, customer inquiries, natural language processing, health care, or transport and logistics.

Poddziedzina sztucznej inteligencji obejmująca algorytmy, które umożliwiają systemom komputerowym iteracyjne uczenie się, a następnie podejmowanie decyzji, wnioskowanie lub przewidywanie na podstawie danych (patrz dane wejściowe). Algorytmy te budują model na podstawie danych szkoleniowych, aby wykonać określone zadanie na nowych danych bez konieczności ich wyraźnego zaprogramowania.

Uczenie maszynowe wdraża różne algorytmy, które uczą się i doskonalą dzięki doświadczeniu w procesie rozwiązywania problemów, który obejmuje czyszczenie danych, wybór funkcji, szkolenie, testowanie i walidację.

Firmy i agencje rządowe wdrażają algorytmy uczenia maszynowego do zadań takich jak wykrywanie oszustw, systemy rekomendacji, zapytania klientów, przetwarzanie języka naturalnego, opieka zdrowotna lub transport i logistyka.

 

Machine learning model / Model uczenia maszynowego

 

A learned representation of underlying patterns and relationships in data, created by applying an AI algorithm to a training data set.

The model can then be used to make predictions or perform tasks on new, unseen data.

Wyuczona reprezentacja podstawowych wzorców i relacji w danych, utworzona przez zastosowanie algorytmu sztucznej inteligencji do zestawu danych szkoleniowych.

Model ten można następnie wykorzystać do prognozowania lub wykonywania zadań na nowych, niewidzianych przez model danych.

 

Multimodal models / Modele wielomodalne

 

A type of model used in machine learning (see machine learning model) that can process more than one type of input or output data, or ‘modality,’ at the same time.

For example, a multi-modal model can take both an image and text caption as input and then produce a unimodal output in the form of a score indicating how well the text caption describes the image. T

hese models are highly versatile and useful in a variety of tasks, like image captioning and speech recognition.

Rodzaj modelu używanego w uczeniu maszynowym (patrz model uczenia maszynowego), który może przetwarzać więcej niż jeden typ danych wejściowych lub wyjściowych, lub “modalność”, w tym samym czasie.

Na przykład model wielomodalny może przyjmować zarówno obraz, jak i opis tekstowy jako dane wejściowe, a następnie generować jednomodalne dane wyjściowe w postaci wyniku wskazującego, jak dobrze tekst opisuje obraz.

Modele te są bardzo wszechstronne i przydatne w różnych zadaniach, takich jak opisywanie obrazów i rozpoznawanie mowy.

 

Natural language processing / Przetwarzanie języka naturalnego

 

A subfield of AI that helps computers understand, interpret and manipulate human language by transforming information into content. It enables machines to read text or spoken language, interpret its meaning, measure sentiment, and determine which parts are important for understanding. Poddziedzina sztucznej inteligencji, która pomaga komputerom rozumieć, interpretować i manipulować ludzkim językiem poprzez przekształcanie informacji w treść. Umożliwia maszynom czytanie tekstu lub języka mówionego, interpretowanie jego znaczenia, mierzenie wydźwięku i określanie, które części są ważne dla zrozumienia.

 

Neural networks / Sieci neuronowe

 

A type of model (see  machine learning model) used in machine learning that mimics the way neurons in the brain interact with multiple processing layers, including at least one hidden layer.

This layered approach enables neural networks to model complex nonlinear relationships and patterns within data. Artificial neural networks have a range of applications, such as image recognition and medical diagnosis.

Typ modelu (zob. model uczenia maszynowego) wykorzystywany w uczeniu maszynowym, który naśladuje sposób interakcji neuronów w mózgu z wieloma warstwami przetwarzania, w tym co najmniej jedną warstwą ukrytą.

To warstwowe podejście umożliwia sieciom neuronowym modelowanie złożonych nieliniowych relacji i wzorców w danych. Sztuczne sieci neuronowe mają szereg zastosowań, takich jak rozpoznawanie obrazów i diagnostyka medyczna.

 

Overfitting / Przeuczenie

 

A concept in machine learning in which a model (see machine learning model) becomes too specific to the training data and cannot generalize to unseen data, which means it can fail to make accurate predictions on new data sets. Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) staje się zbyt specyficzny dla danych szkoleniowych i nie może uogólniać się na niewidziane dane, co oznacza, że może nie być w stanie dokonywać dokładnych prognoz na nowych zestawach danych.

 

Oversight / Nadzór

 

The process of effectively monitoring and supervising an AI system to minimize risks, ensure regulatory compliance and uphold responsible practices.

Oversight is important for effective AI governance, and mechanisms may include certification processes, conformity assessments and regulatory authorities responsible for enforcement.

Proces skutecznego monitorowania i nadzorowania systemu sztucznej inteligencji w celu zminimalizowania ryzyka, zapewnienia zgodności z przepisami i utrzymania odpowiedzialnych praktyk.

Nadzór jest ważny dla skutecznego zarządzania sztuczną inteligencją, a mechanizmy mogą obejmować procesy certyfikacji, oceny zgodności i organy regulacyjne odpowiedzialne za egzekwowanie przepisów.

 

Post processing / Przetwarzanie końcowe

 

Steps performed after a machine learning model has been run to adjust the output of that model.

This can include adjusting a model’s outputs and/or using a holdout data set – data not used in the training of the model – to create a function that is run on the model’s predictions to improve fairness or meet business requirements.

Kroki wykonywane po uruchomieniu modelu uczenia maszynowego w celu dostosowania danych wyjściowych tego modelu.

Może to obejmować dostosowanie danych wyjściowych modelu i/lub użycie zestawu danych wstrzymanych – danych niewykorzystanych w szkoleniu modelu – w celu utworzenia funkcji, która jest uruchamiana na prognozach modelu w celu poprawy uczciwości lub spełnienia wymagań biznesowych.

 

Preprocessing / Przetwarzanie wstępne

 

Steps taken to prepare data for a machine learning model, which can include cleaning the data, handling missing values, normalization, feature extraction and encoding categorical variables.

Data preprocessing can play a crucial role in improving data quality, mitigating bias, addressing algorithmic fairness concerns, and enhancing the performance and reliability of machine learning algorithms.

Kroki podejmowane w celu przygotowania danych dla modelu uczenia maszynowego, które mogą obejmować czyszczenie danych, obsługę brakujących wartości, normalizację, ekstrakcję cech i kodowanie zmiennych kategorycznych.

Wstępne przetwarzanie danych może odgrywać kluczową rolę w poprawie jakości danych, łagodzeniu stronniczości, rozwiązywaniu problemów związanych z uczciwością algorytmów oraz zwiększaniu wydajności i niezawodności algorytmów uczenia maszynowego.

 

Random forest / Las losowy

 

A supervised machine learning (see  supervised learning) algorithm that builds multiple decision trees and merges them together to get a more accurate and stable prediction. Each decision tree is built with a random subset of the training data (see also bootstrap aggregating), hence the name “random forest.”

Random forests are helpful to use with data sets that are missing values or very complex.

Algorytm nadzorowanego uczenia maszynowego (zob.  uczenie nadzorowane), który buduje wiele drzew decyzyjnych i łączy je ze sobą, aby uzyskać dokładniejszą i stabilniejszą prognozę. Każde drzewo decyzyjne jest budowane z losowego podzbioru danych treningowych (patrz także agregacja bootstrap), stąd nazwa “las losowy”.

Lasy losowe są pomocne w przypadku zestawów danych, w których brakuje wartości lub które są bardzo złożone.

 

Reinforcement learning / Uczenie ze wzmocnieniem

 

A machine learning method that trains a model to optimize its actions within a given environment to achieve a specific goal, guided by feedback mechanisms of rewards and penalties. This training is often conducted through trial-and-error interactions or simulated experiences that do not require external data.

For example, an algorithm can be trained to earn a high score in a video game by having its efforts evaluated and rated according to success toward the goal.

Metoda uczenia maszynowego, która trenuje model w celu optymalizacji jego działań w danym środowisku, aby osiągnąć określony cel, kierując się mechanizmami sprzężenia zwrotnego nagród i kar. Trening ten jest często przeprowadzany metodą prób i błędów lub symulowanych doświadczeń, które nie wymagają zewnętrznych danych.

Przykładowo, algorytm można wytrenować tak, by osiągał wysokie wyniki w grach wideo, oceniając jego wysiłki na podstawie sukcesów w dążeniu do celu.

 

Reliability / Niezawodność

 

An attribute of an AI system that ensures it behaves as expected and performs its intended function consistently and accurately, even with new data that it has not been trained on. Cecha systemu sztucznej inteligencji, który zapewnia, że zachowuje się on zgodnie z oczekiwaniami i wykonuje swoją zamierzoną funkcję konsekwentnie i dokładnie, nawet z nowymi danymi, na których nie został przeszkolony.

 

Robotics / Robotyka

 

A multidisciplinary field that encompasses the design, construction, operation and programming of robots. Robotics allow AI systems and software to interact with the physical world. Multidyscyplinarna dziedzina obejmująca projektowanie, budowę, obsługę i programowanie robotów. Robotyka umożliwia systemom sztucznej inteligencji i oprogramowaniu interakcję ze światem fizycznym.

 

Robustness / Solidność

 

An attribute of an AI system that ensures a resilient system that maintains its functionality and performs accurately in a variety of environments and circumstances, even when faced with changed inputs or an adversarial attack. Atrybut systemu sztucznej inteligencji, który zapewnia odporność systemu, który zachowuje swoją funkcjonalność i działa dokładnie w różnych środowiskach i okolicznościach, nawet w obliczu zmienionych danych wejściowych lub ataku przeciwnika.

 

Safety / Bezpieczeństwo

 

The development of AI systems that are designed to minimize potential harm to individuals, society, property and the environment.

Rozwój systemów sztucznej inteligencji, które są zaprojektowane tak, aby zminimalizować potencjalne szkody dla osób, społeczeństwa, mienia i środowiska.

 

Supervised learning / Uczenie nadzorowane

 

A subset of machine learning where the model (see also machine learning model) is trained on input data with known desired outputs. These two groups of data are sometimes called predictors and targets, or independent and dependent variables, respectively.

This type of learning is useful for training an AI to group data into specific categories or making predictions by understanding the relationship between two variables.

Podzbiór uczenia maszynowego, w którym model (patrz także model uczenia maszynowego) jest trenowany na danych wejściowych ze znanymi pożądanymi wynikami. Te dwie grupy danych są czasami nazywane odpowiednio predyktorami i celami lub zmiennymi niezależnymi i zależnymi.

Ten rodzaj uczenia jest przydatny do szkolenia sztucznej inteligencji w celu grupowania danych w określone kategorie lub dokonywania prognoz poprzez zrozumienie związku między dwiema zmiennymi.

 

Synthetic data / Dane syntetyczne

 

Data generated by a system or model (see  machine learning model) that can mimic and resemble the structure and statistical properties of real data.

It is often used for testing or training machine learning models, particularly in cases where real-world data is limited, unavailable or too sensitive to use.

Dane generowane przez system lub model (zob. model uczenia maszynowego), które mogą naśladować i przypominać strukturę i właściwości statystyczne rzeczywistych danych.

Są one często wykorzystywane do testowania lub szkolenia modeli uczenia maszynowego, szczególnie w przypadkach, gdy dane rzeczywiste są ograniczone, niedostępne lub zbyt wrażliwe, aby je wykorzystać.

 

Testing data / Dane testowe

 

A subset of the data set used to provide an unbiased evaluation of a final model (see machine learning model).

It is used to test the performance of the machine learning model with new data at the very end of the model development process.

Podzbiór zestawu danych wykorzystywany do zapewnienia bezstronnej oceny ostatecznego modelu (patrz model uczenia maszynowego).

Służy do testowania wydajności modelu uczenia maszynowego z nowymi danymi na samym końcu procesu opracowywania modelu.

 

Training data / Dane treningowe

 

A subset of the data set that is used to train a model (see also machine learning model) until it can accurately predict outcomes, find patterns or identify structures within the training data.

Podzbiór zestawu danych, który jest używany do trenowania modelu (patrz także model uczenia maszynowego), dopóki nie będzie on w stanie dokładnie przewidywać wyników, znajdować wzorców lub identyfikować struktur w danych szkoleniowych.

 

Transfer learning model / Transferowy model uczenia

 

A type of model (see also machine learning model) used in machine learning in which an algorithm learns to perform one task, such as recognizing cats, and then uses that learned knowledge as a basis when learning a different but related task, such as recognizing dogs. Rodzaj modelu (zob. także model uczenia maszynowego) stosowany w uczeniu maszynowym, w którym algorytm uczy się wykonywać jedno zadanie, takie jak rozpoznawanie kotów, a następnie wykorzystuje tę wyuczoną wiedzę jako podstawę podczas uczenia się innego, ale powiązanego zadania, takiego jak rozpoznawanie psów.

 

Transparency / Przejrzystość

 

The extent to which information regarding an AI system is made available to stakeholders, including if one is used and an explanation of how it works.

It implies openness, comprehensibility and accountability in the way AI algorithms function and make decisions.

Zakres, w jakim informacje dotyczące systemu sztucznej inteligencji są udostępniane zainteresowanym stronom, w tym informacje o tym, czy jest on używany i wyjaśnienie jego działania.

Oznacza to otwartość, zrozumiałość i odpowiedzialność w sposobie działania i podejmowania decyzji przez algorytmy sztucznej inteligencji.

 

Trustworthy AI / Wiarygodna sztuczna inteligencja

 

In most cases used interchangeably with the terms responsible AI and ethical AI, which all refer to principle-based AI development and governance (see also AI governance), including the principles of security, safety, transparency, explainability, accountability, privacy, nondiscrimination/nonbias, among others.

W większości przypadków używane zamiennie z terminami odpowiedzialna sztuczna inteligencja i etyczna sztuczna inteligencja, które odnoszą się do rozwoju i zarządzania sztuczną inteligencją w oparciu o zasady (patrz także zarządzanie sztuczną inteligencją), w tym między innymi zasady bezpieczeństwa, przejrzystości, wyjaśnialności, odpowiedzialności, prywatności, niedyskryminacji / braku uprzedzeń.

 

Turing test / Test Turinga

 

A test of a machine’s ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. Alan Turing (1912-1954) originally thought of the test to be an AI’s ability to converse through a written text. Test zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od ludzkiego. Alan Turing (1912-1954) pierwotnie uważał, że testem jest zdolność sztucznej inteligencji do konwersacji za pomocą tekstu pisanego.

 

Underfitting / Niedouczenie

 

A concept in machine learning in which a model (see machine learning model) fails to fully capture the complexity of the training data. This may result in poor predictive ability and/or inaccurate outputs.

Factors leading to underfitting may include too few model parameters or epochs, having too high a regularization rate, or using an inappropriate or insufficient set of features in the training data.

Koncepcja w uczeniu maszynowym, w której model (patrz model uczenia maszynowego) nie jest w stanie w pełni uchwycić złożoności danych szkoleniowych. Może to skutkować słabą zdolnością predykcyjną i/lub niedokładnymi wynikami.

Czynniki prowadzące do niedouczenia mogą obejmować zbyt małą liczbę parametrów modelu lub epok, zbyt wysoki współczynnik regularyzacji lub użycie niewłaściwego lub niewystarczającego zestawu funkcji w danych szkoleniowych.

 

Unsupervised learning / Uczenie nienadzorowane

 

A subset of machine learning where the model is trained by looking for patterns in an unclassified data set with minimal human supervision. The AI is provided with preexisting data sets and then analyzes those data sets for patterns.

This type of learning is useful for training an AI for techniques such as clustering data (outlier detection, etc.) and dimensionality reduction (feature learning, principal component analysis, etc.).

Podzbiór uczenia maszynowego, w którym model jest trenowany poprzez wyszukiwanie wzorców w niesklasyfikowanym zestawie danych przy minimalnym nadzorze człowieka. Sztuczna inteligencja otrzymuje wcześniej istniejące zestawy danych, a następnie analizuje je w poszukiwaniu wzorców.

Ten rodzaj uczenia się jest przydatny do szkolenia sztucznej inteligencji w zakresie technik takich jak grupowanie danych (wykrywanie wartości odstających itp.) i redukcja wymiarowości (uczenie się cech, analiza głównych składowych itp.).

 

Validation data / Dane walidujące

 

A subset of the data set used to assess the performance of the model (see machine learning model) during the training phase.

Validation data is used to fine-tune the parameters of a model and prevent overfitting before the final evaluation using the test data set.

Podzbiór zbioru danych wykorzystywany do oceny wydajności modelu (patrz model uczenia maszynowego) podczas fazy uczenia.

Dane walidujące są wykorzystywane do dostrajania parametrów modelu i zapobiegania nadmiernemu dopasowaniu przed ostateczną oceną przy użyciu zestawu danych testowych.

 

Variables / Zmienne

 

In the context of machine learning, a variable is a measurable attribute, characteristic or unit that can take on different values. Variables can be numerical/quantitative or categorical/qualitative.

W kontekście uczenia maszynowego zmienna jest mierzalnym atrybutem, cechą lub jednostką, która może przyjmować różne wartości. Zmienne mogą być liczbowe/ilościowe lub kategoryczne/jakościowe.

 

Variance / Wariancja

 

A statistical measure that reflects how far a set of numbers are spread out from their average value in a data set. A high variance indicates that the data points are spread widely around the mean. A low variance indicates the data points are close to the mean. In machine learning, higher variance can lead to overfitting.

The trade-off between variance and bias is a fundamental concept in machine learning. Model complexity tends to reduce bias but increase variance. Decreasing complexity reduces variance but increases bias.

Miara statystyczna, która odzwierciedla, jak daleko zestaw liczb jest rozłożony od ich średniej wartości w zestawie danych. Wysoka wariancja wskazuje, że punkty danych są szeroko rozrzucone wokół średniej. Niska wariancja wskazuje, że punkty danych znajdują się blisko średniej. W uczeniu maszynowym wyższa wariancja może prowadzić do nadmiernego dopasowania.

Kompromis między wariancją a stronniczością jest podstawową koncepcją w uczeniu maszynowym. Złożoność modelu ma tendencję do zmniejszania stronniczości, ale zwiększa wariancję. Zmniejszenie złożoności zmniejsza wariancję, ale zwiększa stronniczość modelu.

 

Powyższe tłumaczenie zweryfikował Maciej Biesek – Data Scientist zajmujący się problematyką przetwarzania języka naturalnego, uczenia maszynowego i uczenia głębokiego. Pasjonat rozwoju sztucznej inteligencji, mentor i nauczyciel technik programowania i wykorzystywania uczenia maszynowego do rozwiązywania realnych problemów.

Dziękujemy!

Key Terms for AI Governance produced by the International Association of Privacy Professionals originally appeared in the IAPP Resource Center. It is reprinted with permission.

The translation has not been provided by the IAPP and was published on 20/07/2023.

XAI w systemie sankcyjnym

Sankcje stanowią integralne i ważne narzędzie wykorzystywane przez rządy i globalne instytucje, takie jak Organizacja Narodów Zjednoczonych, USA czy Unia Europejska, w walce z przestępczością finansową. Na podstawie globalnej sytuacji społecznej, politycznej, gospodarczej i bezpieczeństwa, te organizacje wprowadzają sankcje i ograniczenia skierowane do państw, jednostek, grup o wysokim ryzyku lub podmiotów prawnych podejrzewanych o udział w nielegalnej działalności.

Postępy w zakresie kontrolowania sankcji, zwłaszcza w ostatnich latach, zmuszają banki do przyspieszenia modernizacji swojego podejścia do egzekwowania sankcji, a coraz więcej banków szuka rozwiązania w sztucznej inteligencji (AI) jako przełomowej i innowacyjnej drogi w radzeniu sobie z tymi szybkimi zmianami i ryzykami.

Niniejsza publikacja koncentruje się na wysiłkach banków, jako szczególnych instytucji w systemie sankcyjnym, w zakresie modernizacji kontroli sankcji oraz na skutecznych zastosowaniach AI w tych działaniach modernizacyjnych, a także na zrozumieniu wynikających korzyści finansowych i biznesowych.

AMLRO

Znaczenie rosnącej kontroli sankcji w AML

W wyniku globalnych wysiłków w walce z przestępczością i zgodnie z wymogami swoich banków centralnych i rządów (w większości jurysdykcji niezastosowanie się do sankcji jest przestępstwem), głównym celem banków korzystających z kontroli sankcji jest zapobieganie transakcjom do i od podmiotów/osób/krajów znajdujących się na listach sankcyjnych.

Kontrola przestrzegania sankcji jest częścią programu zapobiegania przestępczości finansowej, która pomaga zidentyfikować osoby i organizacje objęte sankcjami oraz nielegalne działania. Pomaga w identyfikacji obszarów podlegających karom i formułowaniu polityk zarządzania ryzykiem zgodności. W wyniku ryzyka poniesienia znaczących kosztów finansowych i strat reputacyjnych oraz ich konsekwencji większość banków zintensyfikowała działania w celu poprawy kontroli sankcji i określiła je jako jedne z najważniejszych inicjatyw.

Innym aspektem, który jest rezultatem wojny w Ukrainie, a która spowodował dodanie dużej liczby podmiotów i osób do list sankcji, jest wzrost kontroli sankcji do niespotykanych wcześniej poziomów we większości banków na całym świecie.

 

Rosnąca lista sankcji, złożoność i koszt kontroli sankcji w banku

Bankowość doświadczyła niespotykanego wzrostu cyfryzacji, który został dodatkowo przyspieszony przez ostatnie lockdowny spowodowane pandemią. Spowodowało to zwiększenie aktywności i transakcji bankowych we wszystkich regionach, segmentach biznesowych i niestety, w niezliczonych nowych kanałach wykorzystywanych przez przestępców. Regulatorzy stają się coraz bardziej surowi i nakładają coraz większe kary na banki za uchybienia w zgodności, podczas gdy przestępcy stają się bardziej wyrafinowani w swoich taktykach atakowania i szkodzenia reputacji banków.

Dodatkowo, w obliczu obecnej sytuacji politycznej, tempo wzrostu list sankcji przyspieszyło, a niedawne sankcje wobec Rosji są tego przykładem.

Jeśli chodzi o koszty związane z przestrzeganiem sankcji, to na podstawie moich prywatnych danych zebranych w branży bankowej, pełnoetatowy AMLRO, który może wykonywać działania związane z kontrolą sankcji, może kosztować od 240 do 360 tys. PLN rocznie (mowa tu o samych wynagrodzeniach, bez uwzględnienia kosztu dostępu do baz, sprzętu, szkoleń). Jednak ten koszt stale rośnie i nasila się z powodu inflacji i ogólnego niedoboru wykwalifikowanych AMLRO na rynku. W połączeniu z oszacowaniem, że zespół ds. zgodności w banku obejmuje zazwyczaj od 60 do 100 pracowników, roczny koszt może wynosić od 14 do 36 milionów PLN. Szersze implikacje dla większych banków polegają na konieczności optymalizacji kosztów i rozwiązywania problemów kompromisowych, podczas gdy dla mniejszych banków, bez ekonomii skali, może to prowadzić do wyzwań związanych z opłacalnością działalności.

Ponieważ wszystkie transakcje płatnicze podlegają kontroli sankcji, która tradycyjnie była procesem manualnym opartym na statycznych regułach, z ograniczoną zdolnością wspomagania pracowników ds. zgodności w przetwarzaniu rosnącej liczby fałszywych alarmów oraz obciążonych kontrolami wewnętrznymi, takimi jak “druga para oczu”, banki pilnie poszukują rozwiązań, które zapewnią, że nie będą źle przygotowane, gdy w niedalekiej przyszłości koszty operacyjne związane z zgodnością co najmniej podwoją się.

Ostatnim istotnym aspektem jest to, że każdy system AI stosowany w kontroli sankcji AML powinien być wytłumaczalny, aby mógł być łatwo analizowany, zrozumiany i rozszerzany przez regulatorów i interesariuszy biznesowych. Inny ważny aspekt dotyczy satysfakcji klientów i szybkości realizacji płatności od klientów do beneficjentów, co może być utrudnione przez manualne sprawdzanie kontroli sankcji.

Te czynniki w kontroli sankcji stanowią kluczowe siły napędowe stojące za pilną potrzebą modernizacji kontroli sankcji przez banki przy użyciu innowacyjnych metod opartych na rozwiązaniach AI.

 

Trendy w przechodzeniu przez banki od statycznego algorytmu filtrującego do AI

Coraz więcej banków przyjmuje rozwiązania „inteligentnej kontroli”, które wykorzystuje połączenie tradycyjnych, statycznych podejść opartych na algorytmach postępowania z zaawansowanym uczeniem maszynowym i analizą AI. To podejście jest naturalnym procesem rozwoju, który większość banków podejmuje w kierunku AI. Pomimo że może to rozwiązać wcześniej wspomniane problemy, pomagając w ocenie i odróżnieniu prawdziwych dopasowań od fałszywych w przypadku nazw i transakcji (co umożliwi podział na różne etapy kontroli), to takie podejście nie nadąża za trendami w zakresie sankcji opisanymi wcześniej. Banki dopiero zaczynają zdawać sobie sprawę, że w przeciwieństwie do oceny zdolności kredytowej modele AI stosowane w kontroli sankcji mogą wymagać perfekcyjnej dokładności w wykrywaniu prawdziwych pozytywów, ponieważ tylko to przekłada się na wiarygodny busieness case. Zrezygnowanie z pracy manualnej daje bankom elastyczność w zaangażowaniu AMRO w inne obszary wykrywania przestępczości finansowej, które są zgodne z rozwojem rynkowym, prawnym i politycznym. Ponadto, liczba błędów ludzkich w procesie kontroli, spowodowanych zmęczeniem wynikającym z wysokiej intensywności manualnego przetwarzania, jest w takiej sytuacji znacznie zmniejszona. Pozwala to bankom na posiadanie rozwiązań, które łatwo się dopasowują do rosnącego poziomu kontroli sankcji. Dodatkowo, poprawi to satysfakcję klientów, ponieważ zgodne z prawem płatności są dzięki temu szybko realizowane.

Innym aspektem, na który banki zaczynają zwracać uwagę, jest konieczność kontekstowej „wyjaśnialności” modelu AI (XAI) na poziomie akceptowalnym przez regulatora. Globalnie istnieje wiele przypadków odrzucenia nieprzejrzystych modeli AI przez regulatorów, co wynika z obaw regulatorów związanych z powszechnym wykorzystaniem AI w instytucjach finansowych oraz w instytucjach niefinansowych, które pośrednio wpływają na system finansowy. Regulatorzy wymagają, aby sposób, w jaki dane są mapowane na wyniki i decyzje, był w 100% wyjaśnialny, a podstawowe modele AI mogły być łatwo zrozumiane, analizowane i rozbudowywane przez organy regulacyjne i interesariuszy biznesowych.

 

XAI skutecznie pokonuje wyzwania stojące przed istniejącymi rozwiązaniami AI

Podstawowym problemem decyzyjnym dla rozwiązania AI jest badanie alertów kontroli sankcji dotyczących płatności i klasyfikacja dopasowań zarówno nazw, jak i jednostek jako “prawdziwe” lub “fałszywe” na podstawie ich oceny. Wyniki dopasowania z obu potoków danych są następnie oceniane przez bank, aby zdecydować o zwolnieniu lub wstrzymaniu płatności. Ogólnie rzecz biorąc, dopasowanie nazwy, jak sama nazwa wskazuje, dotyczy tego, jak bardzo nazwa odbiorcy i płatnika pasuje do nazwy na listach sankcji, na przykład Jacek Malinowski czy Jarek Malanowski, podczas gdy dopasowanie jednostki ocenia inne informacje o odbiorcy lub płatniku, takie jak ich adresy i firmy.

Duża liczba płatności oznacza konieczność zatrudnienia coraz większej liczby pracowników do rozdzielania prawdziwych i fałszywych alarmów generowanych przez algorytmy dopasowujące wzorce. Ogromna liczba fałszywych alarmów stanowi główną przeszkodę dla udanego i zrównoważonego business case wykorzystania z AI do kontroli zgodności z sankcjami. Dlatego nowe rozwiązania XAI muszą przyjąć bardziej nowatorskie podejście do radzenia sobie z alertami kontroli sankcji.

W udanych rozwiązaniach XAI, które pokonują to wyzwanie, problem kontroli sankcji został podzielony na dwa problemy klasyfikacji: “dopasowanie nazwy” i “dopasowanie jednostki”. Pierwsze oblicza prawdopodobieństwo, że dany podmiot, który wywołał alert, ma takie samo imię jak podmiot faktycznie objęty sankcjami, podczas gdy drugie oblicza prawdopodobieństwo, że dany podmiot, który wywołał alert, ma ten sam rodzaj jednostki (osoba fizyczna, organizacja itp.) jak jak podmiot faktycznie objęty sankcjami. Dzięki zaawansowanym i wyjaśnialnym algorytmom AI te dwa wyniki klasyfikacji okazały się bardzo skuteczne w wyodrębnianiu fałszywych alarmów generowanych przez algorytmy dopasowujące wzorce. Kolejnym powodem sukcesu tych rozwiązań AI jest innowacja polegająca na ochronie danych identyfikujących osobę (PII) w całym przepływie pracy, co w wielu wcześniejszych próbach uniemożliwiało wdrożenie rozwiązań AI. Te udane rozwiązania XAI zostały zaprojektowane w taki sposób, żeby w gruncie rzeczy nie wymagały żadnych danych PII do pracy. Najpierw na miejscu w banku został opracowany silnik obliczający cechy, który konwertuje osobiste dane nieustrukturyzowane na anonimowe dane, które następnie były przesyłane do modeli AI obliczających wyniki. Bardzo ważne dla sukcesu jest również pełne wyjaśnianie modeli AI, ponieważ ich wdrożenie zależy od zrozumienia przez regulatora finansowego, jak modele te działają, i ich zatwierdzenia do użytku. Te udane modele AI są nie tylko w pełni wyjaśnialne, ale także generują wyjaśnialne wyniki na trzech poziomach: dla całej populacji (reguły modelu), dla grup podpopulacji wykazujących podobne zachowanie (reguły dotyczące poszczególnych koszyków ryzyka) oraz dla pojedynczych transakcji (czytelne reguły/wyniki oparte na treiberach dla każdej transakcji), co dodatkowo poprawia ich zgodność z przepisami oraz wartość dla użytkowników biznesowych.

Ostatecznie rozwiązania te zostały zaprojektowane w celu łatwej implementacji, zgodnie z pilną potrzebą banków w zakresie modernizacji kontroli sankcji, oraz z możliwościami monitorowania wydajności modeli w czasie rzeczywistym, zgodnie z wymogiem szybkiego reagowania na żądania płatności.

 

Korzyści i zwrot z inwestycji w XAI w kontroli sankcji

Jak większość inicjatyw opartych na AI, oczekiwania i szacunki zwrotu z inwestycji (ROI) mogą być skomplikowane. Szeroko można je przypisać niepewnościom związanym z szacowaniem ilościowych wartości biznesowych, takich jak zysk produktywności, oszczędności kosztów i zyski, a także jakościowych wartości, takich jak zatrzymanie pracowników o wysokich kwalifikacjach, poprawa elastyczności ich kompetencji i lepsze doświadczenia związane z przepływem pracy.

Strukturalne podejście, zgodne choćby z zasadą Pareto) polega na skoncentrowaniu się najpierw na pozycji, która ma największy wpływ, a następnie na jej dostosowaniu. W przypadku kontroli sankcji, główną podstawą analizy business case jest potrzeba przygotowania i uporządkowania najbardziej pracochłonnych działań w obecnym przepływie pracy. Pomaga to opracować oszacowanie zwrotu z inwestycji na podstawie tego, ilu pełnoetatowych AMLRO może być zastąpionych przez AI, aby mogli być przeniesieni do innych kluczowych obszarów działalności związanych z walką z przestępczością finansową.

Konieczność spełnienia przez modele AI kluczowych KPI narzuconych przez banki, takich jak wymaganie 100% prawdziwych pozytywów, pomogła w opracowaniu struktury kalibracji modeli AI, co pozwoliło na bardziej precyzyjne i wyjaśnialne oszacowanie liczby fałszywych alarmów, które można następnie przesłać do recenzji manualnej. Po rozwiązaniu tych problemów związanych z oszacowaniem liczby fałszywych alarmów, pozostała część procesu jest prosta i polega na alokacji danych liczbowych, takich jak koszt personelu, wielkość klienta, dzienna liczba alarmów i liczba obsługiwanych alarmów na pracownika dziennie, aby oszacować zakres oszczędności wynikających z zastosowania modeli XAI. Pozostałe wartości biznesowe (ilościowe oraz jakościowe) bank może rozważyć w dalszej kolejności, aby móc podjąć decyzję dotyczącą inwestycji w AI.

 

Odniesienie do sytuacji na polskim rynku finansowym i instytucji objętych sankcjami międzynarodowymi

Na polskim rynku finansowym i w instytucjach objętych sankcjami międzynarodowymi, takich jak banki, istnieje również pilna potrzeba modernizacji systemu kontroli sankcji. Wraz z rosnącymi wymaganiami regulacyjnymi oraz złożonością i kosztami związanymi z tradycyjnymi manualnymi metodami kontroli, wykorzystanie rozwiązań opartych na wyjaśnialnej sztucznej inteligencji (XAI) może przynieść wiele korzyści. Poprawa wydajności, redukcja liczby fałszywych alarmów, zmniejszenie błędów ludzkich i zwiększenie skuteczności w identyfikacji osoby lub jednostki objętej sankcjami to tylko niektóre z potencjalnych korzyści. Dodatkowo, wykorzystanie wyjaśnialnej AI może pomóc w spełnieniu wymogów regulacyjnych i umożliwić łatwiejszą analizę i zrozumienie działania modeli AI przez organy regulacyjne i interesariuszy biznesowych.

Ważne jest, aby polskie instytucje finansowe i inne podmioty objęte sankcjami międzynarodowymi zrozumiały korzyści i znaczenie wprowadzenia nowoczesnych technologii, takich jak wyjaśnialna AI, w kontroli sankcji. Wprowadzenie takiego rozwiązania może pomóc w skuteczniejszej i efektywniejszej ochronie przed przestępczością finansową oraz w spełnianiu wymagań regulacyjnych, co przyczyni się do wzrostu zaufania i reputacji instytucji finansowych na polskim rynku.

Początek trilogu o AIA

W połowie czerwca 2023. Parlament Europejski zatwierdził swój mandat negocjacyjny („Stanowisko PE”) w sprawie wniosku UE dotyczącego rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (“Akt o sztucznej inteligencji” czyli “AIA”). Głosowanie w PE oznacza, że instytucje UE mogą teraz rozpocząć negocjacje trójstronne (Rada zatwierdziła swój mandat negocjacyjny w grudniu 2022 r.). Ostateczna wersja AI Act spodziewana jest przed końcem 2023 roku.

Wydanie stanowiska Parlamentu Europejskiego rozpoczyna trilog.

Trilog to etap uzgodnieniowy, w którym Parlament, Rada i Komisja Europejska podejmują negocjacje w celu osiągnięcia porozumienia w sprawie treści końcowego aktu prawodawczego (w tym wypadku Artificial Intelligence Act – AIA). Negocjacje odbywają się na podstawie stanowiska Parlamentu oraz opinii i sugestii Rady. Podczas trilogu przedstawiciele Parlamentu, Rady i Komisji będą spotykać się, aby omówić różnice i próbować znaleźć kompromisowe rozwiązania.

Po zakończeniu trilogu, jeśli Parlament, Rada i Komisja osiągną porozumienie, następuje procedura formalna, w której stanowisko Parlamentu i Rady zostaje poddane ostatecznej procedurze przyjęcia. W przypadku przyjęcia aktu prawodawczego przez obie instytucje, staje się on prawnie wiążący dla państw członkowskich i jest implementowany w prawodawstwie krajowym.

W sprawie AIA, Parlament Europejski zaproponował szereg istotnych poprawek do pierwotnego tekstu Komisji, który pochodzi z 2021 roku.

Poniżej przedstawiamy niektóre z kluczowych zmian wprowadzonych przez PE:

Zmiany w kluczowych definicjach

PE wprowadził szereg istotnych zmian w definicjach stosowanych w ustawie o sztucznej inteligencji (art. 3). Zgodnie ze stanowiskiem PE:

  • Definicja „systemu AI” została dostosowana do definicji systemu AI OECD. System sztucznej inteligencji jest teraz definiowany jako „system oparty na maszynach, który jest zaprojektowany do działania na różnych poziomach autonomii i który może, w celach jawnych lub ukrytych, generować dane wyjściowe, takie jak prognozy, zalecenia lub decyzje, które wpływają na środowisko fizyczne lub wirtualne”.
  • Użytkownicy systemów AI są teraz nazywani „podmiotami wdrażającymi”.

Tekst PE zawiera ponadto szereg nowych definicji, w tym:

  • „Osoby dotknięte”, czyli „każda osoba fizyczna lub grupa osób, które podlegają systemowi AI lub na które system AI ma inny wpływ”.
  • „Model podstawowy”, który oznacza „model sztucznej inteligencji, który jest szkolony na szerokich danych na dużą skalę, jest zaprojektowany pod kątem ogólności wyników i może być dostosowany do szerokiego zakresu charakterystycznych zadań”. Dostawcy modeli podstawowych podlegają obecnie szeregowi szczegółowych obowiązków wynikających z ustawy o sztucznej inteligencji.
  • „System sztucznej inteligencji ogólnego przeznaczenia”, który jest „systemem sztucznej inteligencji, który może być używany i dostosowywany do szerokiego zakresu zastosowań, dla których nie został celowo i specjalnie zaprojektowany”.

Ogólne zasady mające zastosowanie do systemów AI

Stanowisko PE ustanawia zestaw sześciu podstawowych zasad, które mają zastosowanie do wszystkich systemów sztucznej inteligencji regulowanych przez AIA. Zasady te to:

  • ludzka odpowiedzialność i nadzór;
  • odporność techniczna i bezpieczeństwo;
  • prywatność i zarządzanie danymi;
  • przejrzystość;
  • różnorodność, niedyskryminacja i sprawiedliwość; oraz
  • dobrostan społeczny i środowiskowy.

Klasyfikacja systemów AI

PE zaproponował istotne zmiany w wykazie zakazanych praktyk/systemów AI.

Nowe zakazy obejmują: (1) biometryczne systemy kategoryzacji, które kategoryzują osoby fizyczne zgodnie z wrażliwymi lub chronionymi atrybutami lub cechami lub w oparciu o wnioskowanie o tych atrybutach lub cechach; oraz (2) systemy AI, które tworzą lub rozszerzają bazy danych rozpoznawania twarzy poprzez nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV.

Ponadto Parlament Europejski rozszerzył listę systemów i aplikacji AI, które należy uznać za obarczone wysokim ryzykiem. Lista systemów wysokiego ryzyka w stanowisku PE obejmuje na przykład niektóre systemy sztucznej inteligencji wykorzystywane przez duże platformy mediów społecznościowych do rekomendowania treści użytkownikom.

Zgodnie z zasadami zaproponowanymi przez PE, dostawcy niektórych systemów AI mogą obalić domniemanie, że system powinien być uznany za system AI wysokiego ryzyka. Wymagałoby to złożenia zawiadomienia do organu nadzorczego lub urzędu ds. sztucznej inteligencji (tego ostatniego, jeśli system sztucznej inteligencji ma być używany w więcej niż jednym państwie członkowskim), które dokonają przeglądu i odpowiedzą w ciągu trzech miesięcy, aby wyjaśnić, czy uważają system sztucznej inteligencji za obarczony wysokim ryzykiem.

Stanowisko PE nakłada ponadto szczególne wymogi na generatywne systemy sztucznej inteligencji (jak na przykład popularny ChatGPT), takie jak obowiązek ujawnienia, że treści zostały wygenerowane przez sztuczną inteligencję, zaprojektowanie systemu sztucznej inteligencji w sposób uniemożliwiający generowanie nielegalnych treści oraz publikowanie podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia.

Korekty obowiązków w kontekście systemów AI wysokiego ryzyka

PE wprowadza również znaczące zmiany w obowiązkach dostawców systemów sztucznej inteligencji wysokiego ryzyka, wymagając od nich np:

  • Zapewnienia, że osoby fizyczne odpowiedzialne za ludzki nadzór nad systemami AI wysokiego ryzyka są w szczególności świadome ryzyka automatyzacji lub tendencyjności systemowych potwierdzeń.
  • Dostarczania specyfikacji danych wejściowych lub wszelkich innych istotnych informacji w zakresie wykorzystywanych zbiorów danych, w tym ich ograniczeń i założeń, z uwzględnieniem zamierzonego celu oraz przewidywalnego i racjonalnie przewidywalnego niewłaściwego użycia systemu AI.
  • Upewnienie się, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi dostępności.

Ponadto obowiązki podmiotów wdrażających systemy sztucznej inteligencji wysokiego ryzyka zostały znacznie rozszerzone i obecnie obejmują:

  • W przypadku niektórych systemów AI – informowanie osób fizycznych o tym, że podlegają one korzystaniu z systemów AI wysokiego ryzyka oraz że mają prawo do uzyskania wyjaśnień na temat wyników działania systemu.
  • Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka w miejscu pracy podmioty wdrażające konsultują się z przedstawicielami pracowników i informują pracowników, że będą podlegać systemowi.
  • Przeprowadzić ocenę wpływu na prawa podstawowe (patrz poniżej).

Obowiązek przeprowadzenia oceny skutków w zakresie praw podstawowych.

Jak wspomniano powyżej, przed użyciem systemu sztucznej inteligencji wysokiego ryzyka niektóre podmioty wdrażające będą zobowiązane do przeprowadzenia oceny wpływu na prawa podstawowe. Ocena ta powinna obejmować co najmniej następujące elementy:

  • jasny zarys celu, w którym system będzie używany;
  • jasny zarys zamierzonego zakresu geograficznego i czasowego korzystania z systemu;
  • kategorie osób fizycznych i grup, na które może mieć wpływ korzystanie z systemu;
  • weryfikację, czy korzystanie z systemu jest zgodne z odpowiednimi przepisami unijnymi i krajowymi dotyczącymi praw podstawowych;
  • racjonalnie przewidywalny wpływ korzystania z systemu sztucznej inteligencji wysokiego ryzyka na prawa podstawowe;
  • szczególne ryzyko szkody, które może mieć wpływ na osoby zmarginalizowane lub grupy szczególnie wrażliwe;
  • racjonalnie przewidywalny negatywny wpływ korzystania z systemu na środowisko;
  • szczegółowy plan, w jaki sposób zidentyfikowane szkody i negatywny wpływ na prawa podstawowe zostaną złagodzone; oraz
  • system zarządzania, który wdroży podmiot wdrażający, w tym nadzór nad ludźmi, rozpatrywanie skarg i dochodzenie roszczeń.

W procesie przygotowywania oceny skutków w zakresie praw podstawowych od podmiotów wdrażających może być wymagane nawiązanie współpracy z organami nadzorczymi i zewnętrznymi zainteresowanymi stronami, takimi jak agencje ochrony konsumentów i agencje ochrony danych.

Wyłączenie niektórych nieuczciwych warunków umownych w umowach AI z MŚP lub startupami

Stanowisko PE wprowadza nowy przepis ograniczający prawo kontrahenta do jednostronnego narzucania pewnych warunków umownych związanych z dostawą narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub rozwiązania zobowiązań związanych z tymi systemami w umowach z MŚP lub startupami.

Przykłady niedozwolonych postanowień obejmują warunki umowne, które:

  • wyłączają lub ograniczają odpowiedzialność strony, która jednostronnie narzuciła warunek, za działania umyślne lub rażące niedbalstwo;
  • wyłączają środki zaradcze przysługujące stronie, na którą jednostronnie narzucono warunek, w przypadku niewykonania zobowiązań umownych lub odpowiedzialności strony, która jednostronnie narzuciła warunek, w przypadku naruszenia tych zobowiązań; oraz
  • przyznają stronie, która jednostronnie narzuciła warunek, wyłączne prawo do ustalenia, czy dostarczona dokumentacja techniczna i informacje są zgodne z umową lub do interpretacji jakiegokolwiek warunku umowy.

Środki wspierające innowacje

Rozdział V projektu AIA, który zawiera środki wspierające innowacje (w tym tzw. sandboxy dotyczące regulacji AI), został w stanowisku PE rozszerzony i wyjaśniony. Jeden z nowych przepisów wymaga od państw członkowskich UE promowania badań i rozwoju rozwiązań AI, które wspierają wyniki korzystne społecznie i środowiskowo, takie jak

  • rozwiązania zwiększające dostępność dla osób niepełnosprawnych;
  • zwalczanie nierówności społeczno-ekonomicznych oraz
  • osiąganie celów w zakresie zrównoważonego rozwoju i ochrony środowiska.

Grzywny

Stanowisko PE znacząco zmienia grzywny, które mogą być nakładane na mocy ustawy o sztucznej inteligencji. PE proponuje, aby:

  • Nieprzestrzeganie przepisów dotyczących zakazanych praktyk związanych z AI podlegało karom administracyjnym wysokości do 40 000 000 EUR lub, jeżeli sprawca jest przedsiębiorstwem, w wysokości do 7% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie zasad określonych w art. 10 (dane i zarządzanie danymi) i art. 13 (przejrzystość i dostarczanie informacji użytkownikom) podlegało karze administracyjnej wysokości do 20 000 000 EUR lub, jeżeli sprawcą jest spółka, do 4% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Nieprzestrzeganie innych wymogów i obowiązków wynikających z ustawy o sztucznej inteligencji podlegało administracyjnej karze pieniężnej wysokości do 10 000 000 EUR lub, jeżeli sprawcą jest spółka, do 2% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
  • Dostarczenie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na wniosek podlegało administracyjnej karze pieniężnej do 5 000 000 EUR lub, jeżeli sprawcą jest spółka, do 1% jej całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

Należy również zauważyć, że w stanowisku PE proponuje się, aby kary (w tym grzywny) wynikające z ustawy o sztucznej inteligencji, a także związane z nimi koszty postępowania sądowego i roszczenia odszkodowawcze, nie mogły podlegać klauzulom umownym ani innym formom umów o podziale obciążeń między dostawcami a dystrybutorami, importerami, podmiotami wdrażającymi lub innymi stronami trzecimi.

Wzmocnione środki ochrony prawnej

W AIA wprowadzono nowy rozdział dotyczący środków zaradczych dostępnych dla osób poszkodowanych w obliczu potencjalnych naruszeń zasad wynikających z ustawy o sztucznej inteligencji. Szczególnie istotne jest wprowadzenie podobnego do RODO prawa do złożenia skargi do organu nadzorczego.

Wdrożyliście już lean manufacuring? I co dalej?

Jakie są obecnie trendy w zarządzaniu produkcją? Jakie są największe wyzwania i możliwości, przed którymi stoją dziś firmy produkcyjne? Zmieniają się narzędzia i pomysły, ale oczywiście najważniejszym wyzwaniem jest niezmiennie:

  • obniżanie wydatków,

  • poprawa efektywności biznesowej,

  • jakość.

Nowe ryzyka i wyzwania przed firmami B2B

Najwięcej firm produkcyjnych wskazuje obecnie na zarządzanie łańcuchem dostaw i zapewnienie cyberbezpieczeństwa organizacji jako na najistotniejsze wyzwania, z którymi się obecnie mierzą. To ostatnie jest szczególnie ważne, jeśli zamierzamy wykorzystywać dane do zarządzania procesami, a bez tego współczesna produkcja w zasadzie nie istnieje. Jednak urządzenia pracujące w sieciach IoT oraz te, które pomagają w utrzymaniu maszyn w dobrym stanie generują ryzyka wcześniej zupełnie nie występujące, dlatego konieczna jest ich odpowiednia ochrona całych firm na poziomie cyberbezpieczeństwa produkcji.

Firmy B2B, także te produkcyjne, starają się rozwijać swoje korporacyjne serwisy WWW, wyposażając je w ciekawe funkcjonalności (chatboty , elementy grywalizacji, nowoczesne wyszukiwarki produktowe – np. z wykorzystaniem rozwiązań wyszukiwania wizualnego itp.). Ciekawostką jest, że narzędzia te wykorzystywane są przede wszystkim w wewnętrznych sieciach firmowych (intranecie), a rzadziej na stronach skierowanych do klientów, ponieważ model obsługi klienta B2B zmienia się wolniej, niż technologia.

Zatem, co technologia zmienia w zarządzaniu produkcją w 2023 roku?

1.   Efektywniejszy łańcuch dostaw i magazyn

Sukces firmy produkcyjnej zależy w znacznej mierze od efektywności jej łańcucha dostaw. Odpowiedni poziom dostępności niezbędnych materiałów i narzędzi w magazynie pozwala firmie osiągnąć maksymalną efektywność. Utrzymanie optymalnych stanów magazynowych jest niezwykle trudne, dlatego coraz więcej firm decyduje się na wdrożenie nowoczesnych rozwiązań w swoich magazynach.

AIoT

Automatyzacja w zaopatrzeniu i gospodarce magazynowej, zwłaszcza w dużych firmach produkcyjnych, jest coraz częściej wykorzystywana. W przypadku łańcucha dostaw oznacza to zastosowanie specjalnych systemów (np. do automatycznego składania zamówień, oprogramowania do kontroli warunków magazynowych), które znacznie ograniczają pracę ręczną, a w przyszłości być może nawet wyeliminują ją całkowicie z procesu zarządzania zapasami na poziomie operacyjnym. Obejmuje to między innymi monitorowanie zapasów i automatyczne generowanie zamówień.

Jak mówili eksperci uczestniczący w 7. Forum Działów Zakupów:

Strategie łańcucha dostaw w 2023 roku będą wielopłaszczyznowe. Firmy będą dalej dywersyfikować lub dodawać nowych dostawców do swojej sieci dostaw. Będzie to oznaczać znaczne przyspieszenie przyjmowania nowoczesnych programów zarządzania zapasami w branży.

Oprogramowanie do automatyzacji magazynu można łączyć z rozwiązaniami wykorzystującymi sztuczną inteligencję, której algorytmy śledzą zużycie materiału i narzędzi. Mogą również analizować te dane, aby dostosowywać zamówienia na podstawie bieżącego zużycia, zamiast korzystać z predefiniowanych stanów. Dzięki temu pracownicy działu zakupów mogą poświęcić mniej czasu na analizę i weryfikację zamówień i ostatecznie – zwiększyć rotację i zmniejszyć wartość magazynu.

 

Przydatną integracją jest również połączenie systemów magazynowych z oprogramowaniem dostawcy. Nowoczesne rozwiązania sourcingowe, ulepszone przez sztuczną inteligencję, dobierają partnerów z bazy danych firmy na podstawie wytycznych zgodnych z jej strategią – ceną, historią zakupów czy przestrzeganiem zasad zrównoważonego rozwoju.

1.   Internet rzeczy i sztuczna inteligencja – best combo w przemyśle

Wg. Deloitte dla Manufacturing Outlook prawie połowa (do 45%) osób podejmujących decyzje w biznesie produkcyjnym oczekuje dalszej efektywności operacyjnej dzięki inwestowaniu w Internet rzeczy (IoT ). Więcej o AIoT pisaliśmy ostatnio tu w artykule „W jaki praktyczny sposób można zastosować sztuczną inteligencję w przemyśle?”

Wykorzystanie IoT w produkcji zapewnia dostęp do większej ilości danych, które można wykorzystać na różne sposoby, np. w procesie projektowania nowych produktów czy planowania konserwacji maszyn i urządzeń. Urządzenia IoT są głębokim źródłem informacji nie tylko o wydajności produktów, ale także mogą być wykorzystywane do zbierania danych o zwyczajach i zachowaniach użytkowników końcowych.

Jednak chyba najważniejszych zastosowaniem AIoT w produkcji jest możliwość ciągłego doskonalenie produktu. Firmy, które nie wdrożyły rozwiązań opartych na IoT, muszą polegać na kosztownych badaniach rynku, a ich wdrożenie może być czasochłonne. Ponadto wyniki tych badań nie zawsze są w pełni wiarygodne. Dzięki AIoT producenci uzyskują bezpośredni dostęp do informacji o sprzęcie – sposobie jego używania, postępowaniu użytkowników ze sprzętem, całym UX. Dane są generowane podczas użytkowania sprzętu i przesyłane do systemów producenta, a następnie analizowane i wykorzystywane do niemal bieżących zmian, które mogą być proponowane przez projektantów wspieranych przez sztuczną inteligencję. Internet Rzeczy pozwala również dostosować stany magazynowe do zapotrzebowania na dany produkt, co ułatwia zarządzanie łańcuchem dostaw, udostępniając systemom przydatne informacje o popycie.

IoT jest w stanie monitorować sprzęt i produkcję w czasie rzeczywistym, co oznacza, że ta technologia w produkcji może być wykorzystana do wykrywania wad produktów i oceny ich jakości. Dodatkowo czujniki IoT mogą odbierać bodźce i dostarczać dane do systemów, które są w stanie ocenić warunki i sytuację na hali produkcyjnej. Przesyłanie i przetwarzanie danych w czasie rzeczywistym nie tylko pomaga utrzymać maszyny produkcyjne w lepszym stanie, ale także zwiększa bezpieczeństwo, np. poprzez awaryjne wyłączenie, gdy obcy obiekt (niepożądany przedmiot lub pracownik) wejdzie na obszar pracy.

1.   Poprawa cyberbezpieczeństwa produkcji

Szkolenie pracowników z zagrożeń i dobrych praktyk z zakresu cyberbezpieczeństwa nie jest dla niektórych przedsiębiorców priorytetem. Jedną z najczęstszych technik stosowanych przez hakerów jest phishing – wyłudzanie poufnych danych (np. przy próbie logowania). Dlatego pracownicy powinni być regularnie uświadamiani o zagrożeniach.

Źródło : raport Deloitte Manufacturing Industry Outlook 2022

W 2021 roku produkcja zastąpiła usługi finansowe jako najbardziej atakowana branża. Podatność przedsiębiorstw tego sektora gospodarki na cyberataki wynika przede wszystkim z częstego korzystania z usług OT polegających na monitorowaniu stanu urządzeń i wydajności procesów przemysłowych za pomocą odpowiednich systemów. W ubiegłym roku 61% incydentów w organizacjach korzystających z usług OT miało miejsce w sektorze produkcyjnym, a 36% z nich zostało spowodowanych przez oprogramowanie ransomware (oprogramowanie, które szyfruje pliki na dysku lokalnym i sieciowym do czasu spełnienia żądań przestępców).

Według raportu Manufacturing Industry Outlook 2022 (Deloitte) zdecydowana większość przedstawicieli firm produkcyjnych (85%) oczekuje, że ich organizacje będą więcej inwestować w przeciwdziałanie cyberprzestępczości w 2022 roku. Ponad połowa ankietowanych (56%) przewiduje większe wydatki na wykrywanie zagrożeń. Znaczna część respondentów planuje przeznaczyć więcej środków na opracowanie strategii reagowania na ataki.

Firmy produkcyjne korzystają dziś z wielu urządzeń generujących dane oraz systemów zbierających i przetwarzających informacje. Sama ich ilość zwiększa podatność organizacji na cyberataki. Bardzo trudno jest odpowiednio zabezpieczyć wiele systemów, które nieustannie wymieniają dane (IoT, RPA). Zatrudnienie odpowiedniej liczby pracowników o odpowiednich kwalifikacjach i doświadczeniu może generować duże koszty i nie jest łatwe. Rozwiązaniem tego problemu może być coraz bardziej popularny outsourcing usług cyberbezpieczeństwa. Polega ona na delegowaniu zadania ochrony systemów firmy zewnętrznej organizacji wyspecjalizowanej w dbaniu o cyberbezpieczeństwo.

2.   Zastosowanie robotyki i zwiększenie automatyzacji produkcji

Dużą część pracy, która nie wymaga ludzkiej inteligencji i zdolności, mogą wykonywać roboty. Oznacza to, że firma może ograniczyć liczbę pracowników wykonujących zadania manualne, a niezastąpionych przekierować do pracy zgodnej z ich kwalifikacjami.

Połowa dyrektorów generalnych sektora produkcyjnego ankietowanych przez Deloitte spodziewa się zwiększyć efektywność operacyjną w 2022 r., inwestując w roboty produkcyjne i coboty. Przewiduje się również, że do 2025 r. łączna roczna stopa wzrostu inwestycji w sztuczną inteligencję (CAGR) przekroczy 20%.

Urządzenia wyposażone w sztuczną inteligencję i IoT mogą zastąpić ludzkich pracowników na wielu etapach produkcji. Implementacja RPA (Robotic Process Automation), jako technologia produkcyjna umożliwiająca automatyzację wielu powtarzalnych i rutynowych zadań, pozwala na znaczną redukcję regularnych wydatków. Decydując się choćby częściowo na wdrożenie RPA, firmy mogą zmniejszyć liczbę defektów i zwiększyć efektywność procesów kontroli i oceny jakości. Tradycyjne czynności przeprowadzane w celu sprawdzenia wydajności i działania produktów wymagają dużo czasu. Ponadto podczas takiej weryfikacji pojawiają się błędy. Maszyny w przeciwieństwie do ludzi nie popełniają błędów. Jeśli wystąpi usterka, przełożony zostanie o tym poinformowany za pośrednictwem systemu, co skutkuje mniejszymi stratami materiałów, czasu i budżetu.

RPA może działać nie tylko w halach produkcyjnych, ale również w magazynach, zastępując pracowników oraz obsługiwane przez nich maszyny i narzędzia. Automatyzują nie tylko samą produkcję, ale również magazynowanie i transport, a ich systemy zbierają dane i generują raporty, które umożliwiają monitorowanie i usprawnianie pracy w przedsiębiorstwie.

3.   Zrównoważone inwestowanie i ESG

Konsumenci lubią zielone firmy – takie, które są nie tylko nastawione na zysk, ale też mają cele społeczne, takie jak ograniczenie szkodliwego wpływu fabryk na środowisko, wspieranie słabiej rozwiniętych regionów czy ochrona zwierząt. Firmy produkcyjne mogą angażować się w powyższe inicjatywy na wiele sposobów, wykorzystując materiały pochodzące z recyklingu, oszczędzając wodę czy energię, a także finansując inicjatywy społeczne.

Według badań Gartnera do 2024 roku 75% z 20 światowych gigantów w produkcji dóbr konsumpcyjnych zaangażuje się we współpracę ekosystemową mającą na celu wzrost gospodarczy i zrównoważony rozwój. Współpraca przedsiębiorstw z różnymi organizacjami społecznymi oraz zrównoważone inwestycje to najnowsze trendy w przemyśle wytwórczym.

Tak naprawdę zaangażowanie w kształtowanie sytuacji na świecie ma nie tylko wymiar medialny. Współpraca z fundacjami, organizacjami i przedsiębiorstwami w ramach akcji społecznych daje firmie możliwość rozwoju poprzez wymianę doświadczeń, danych, technologii produkcji (i nie tylko) oraz budowanie wzajemnego zaufania.

4.   Zapobiegaj opóźnieniom dzięki konserwacji zapobiegawczej

Dane pokazują, że konserwacja zapobiegawcza może skrócić przestoje w produkcji o 30% do 50%, wydłużyć żywotność maszyn o 20% do 40% i obniżyć koszty o ponad 30%. Warto pamiętać, że taniej jest zadbać o dobry stan urządzeń niż wstrzymać produkcję i marnować pieniądze na naprawy.

Zastosowanie AIOT może skrócić przestoje spowodowane problemami ze sprzętem i zapewnia dłuższe działanie maszyn. Systemy oparte na AI i uczeniu maszynowym stale monitorują wydajność maszyn i ostrzegają pracowników, gdy konieczna jest konserwacja lub naprawa. Dzięki temu można je wykonać wtedy, gdy są naprawdę potrzebne. Korzystając z wielkich ilości danych, algorytmy mogą oszacować, kiedy może wystąpić defekt. Dzieje się tak dlatego, że dzięki analityce w czasie rzeczywistym mogą wykryć spadek produktywności lub wcześniejsze symptomy defektów, które negatywnie wpływają na efektywność produkcji, zaś dzięki sztucznej inteligencji algorytmy uczą się na bieżąco, dostosowując przewidywania do przypadkowych zmiennych jak np. mechaniczne uszkodzenia.

Konserwacja predykcyjna to najskuteczniejsza strategia zarządzania maszynami, ponieważ pozwala zoptymalizować koszty i operacje. Według raportu firmy Deloitte wdrożenie utrzymania ruchu maszyn i utrzymania ruchu z wykorzystaniem analityki predykcyjnej może zwiększyć efektywność firmy produkcyjnej nawet o 25%.

Wykorzystując analitykę predykcyjną do oceny stanu sprzętu, przedsiębiorstwa ograniczają wydatki na naprawy, wymieniając części, gdy jest to naprawdę konieczne, oraz redukując koszty związane z przestojem produkcji w przypadku awarii. Systemy monitorowania stanu urządzeń zbierają i przetwarzają dane w czasie rzeczywistym, dzięki czemu personel szybko otrzymuje informację o pojawieniu się zagrożenia i rekomenduje działania. Korzystając z tego rozwiązania, możliwe jest również lepsze zarządzanie pracą na produkcji, identyfikując z wyprzedzeniem procesy, które najczęściej powodują usterki lub przerwy w pracy.

Źródło : raport Deloitte Predictive Maintenance

5.   Rozwój usługi w modelu EaaS (Equipment-as-a-Service)

Equipment-as-a-Service to rodzaj usługi B2B, która ma potencjał zrewolucjonizowania rynku produkcyjnego. Polega na sprzedaży usługi wykonanej przy pomocy danego produktu lub wyników produkcji zamiast samego produktu (maszyny). Dzięki powszechnemu wykorzystaniu udostępniania urządzeń w modelu EaaS przedsiębiorstwa będą mogły poszerzyć swoją ofertę lub zwiększyć produkcję, a producenci zwiększą swoje zyski. Jak przewidują analitycy Gartnera, choć dziś takiego rynku praktycznie nie ma, to do 2023 roku 20% producentów sprzętu przemysłowego zaoferuje EaaS w pakiecie z funkcjonalnościami typowymi dla urządzeń IoT.

Oferowanie atrakcyjnej usługi może wymagać nawiązania współpracy z innymi przedsiębiorstwami. W ten sposób można zaprojektować kompleksowe oferty, które wyróżnią firmę na tle konkurencji. Rozważ wykorzystanie analityki opartej na IoT i sztucznej inteligencji, aby lepiej zrozumieć potrzeby branży produkcyjnej i tworzyć usługi dostosowane do oczekiwań użytkowników, a także poprawiać ich doświadczenia.

Kluczem do sukcesu w modelu EaaS jest zapewnienie klientom wysokiej jakości doświadczenia. W związku z tym usługodawca powinien stworzyć możliwość personalizacji usługi do potrzeb klienta. Wtedy będzie mógł tak skonfigurować pakiet usług, aby spełniał on jego oczekiwania. W tym celu konieczne będzie zautomatyzowanie procesów i udostępnienie klientom biznesowym nowoczesnej platformy, która pozwoli im szybko i łatwo kupować oraz świadczyć usługi.

 

Wdrożenie lean manufacturing to krok w kierunku poprawy efektywności biznesowej, obniżenia kosztów i podniesienia jakości w firmach produkcyjnych. Jednak oprócz tego, istnieją również inne trendy i wyzwania w zarządzaniu produkcją, które są istotne dla przedsiębiorstw.

Najważniejsze trendy w zarządzaniu produkcją obejmują:

  1. Efektywniejszy łańcuch dostaw i magazyn: Wdrażanie nowoczesnych rozwiązań w magazynach, takich jak automatyzacja i oprogramowanie do zarządzania zapasami, pomaga firmom utrzymać optymalne stany magazynowe i zwiększyć efektywność łańcucha dostaw.
  2. Wykorzystanie Internetu Rzeczy (IoT) i sztucznej inteligencji (AI): IoT dostarcza większą ilość danych, które mogą być wykorzystane do poprawy procesów projektowania, konserwacji maszyn i analizy zachowań użytkowników. Połączenie IoT z AI umożliwia producentom ciągłe doskonalenie produktów i dostosowywanie stanów magazynowych do popytu.
  3. Zastosowanie robotyki i automatyzacja produkcji: Robotyka i coboty mogą wykonywać wiele zadań, które wcześniej wymagały pracy ludzkiej. Automatyzacja produkcji za pomocą robotów pozwala firmom zmniejszyć liczbę pracowników wykonujących zadania manualne i zwiększyć efektywność operacyjną.
  4. Cyberbezpieczeństwo produkcji: Firmy produkcyjne stają przed wyzwaniem zapewnienia odpowiedniego poziomu cyberbezpieczeństwa w związku z rosnącym zagrożeniem cyberataków. Szkolenie pracowników, inwestycje w wykrywanie zagrożeń i opracowanie strategii reagowania na ataki są kluczowe dla ochrony przedsiębiorstw.

Największe wyzwania przed firmami produkcyjnymi to zarządzanie łańcuchem dostaw, cyberbezpieczeństwo i zapewnienie wysokiej jakości produktów. Jednak dzięki nowym technologiom i innowacjom istnieją możliwości poprawy efektywności operacyjnej, redukcji kosztów i zwiększenia konkurencyjności.

Firmy produkcyjne będą kontynuować wdrażanie nowoczesnych rozwiązań, takich jak automatyzacja, sztuczna inteligencja, Internet Rzeczy i robotyka, aby sprostać współczesnym wyzwaniom i osiągnąć sukces w dynamicznym środowisku produkcyjnym. Jednocześnie, należy pamiętać o konieczności ochrony przed cyberatakami i inwestycji w cyberbezpieczeństwo.

W jaki praktyczny sposób można zastosować sztuczną inteligencję w przemyśle?

Sztuczna inteligencja (AI) może być wykorzystana w wielu praktycznych zastosowaniach w przemyśle. W połączeniu z Internetem rzeczy (IoT), tworzy nową kategorię technologii zwanych AIoT (Artificial Intelligence of Things).

Jednym z zastosowań AIoT w przemyśle jest predykcyjna konserwacja. AIoT może analizować dane z czujników IoT, takich jak wibracje, temperatura czy wilgotność, aby wykryć potencjalne usterki w urządzeniach, zanim jeszcze się zepsują. Dzięki temu można uniknąć kosztownych przestojów w produkcji, a także zaplanować naprawy lub wymiany części w dogodnym czasie.

Kolejnym praktycznym zastosowaniem sztucznej inteligencji rzeczy w przemyśle jest optymalizacja procesów produkcyjnych. AIoT może analizować dane z czujników IoT, takie jak zużycie energii, ilość odpadów czy wydajność produkcji, aby pomóc w identyfikacji obszarów, gdzie można poprawić wydajność i zmniejszyć koszty.

Innym zastosowaniem jest monitorowanie bezpieczeństwa w fabrykach i na liniach produkcyjnych. AIoT może analizować dane z kamer monitoringu, wykrywać niebezpieczne sytuacje, takie jak wypadki czy nieprawidłowe zachowania pracowników, i natychmiast powiadamiać odpowiednie służby.

Sztuczna inteligencja rzeczy może być również wykorzystywana do zarządzania zapasami i logistyką w magazynach i centrach dystrybucji. Systemy mogą śledzić położenie i ilość towarów, przewidzieć popyt na produkty i dostosować zapasy w magazynie w czasie rzeczywistym.

W sumie, AIoT oferuje wiele praktycznych zastosowań w przemyśle, które mogą pomóc w poprawie wydajności, redukcji kosztów oraz zwiększeniu bezpieczeństwa i jakości produktów.

AIoT

Sztuczna inteligencja (AI) i Internet rzeczy (IoT) to technologie, które mają potencjał zmienić sposób, w jaki przemysł funkcjonuje. AIoT (Artificial Intelligence of Things) to połączenie tych dwóch technologii, które umożliwia wykorzystanie sztucznej inteligencji do analizy danych zebranej przez urządzenia IoT.

W ten sposób system może dostarczać informacji biznesowych, które umożliwiają podjęcie skutecznych działań i decyzji biznesowych.

Jednym z zastosowań AIoT w przemyśle jest predykcyjna konserwacja. Systemy mogą monitorować zachowanie maszyn, aby wykryć potencjalne problemy zanim staną się poważne. Na przykład, w przypadku silnika, AIoT może monitorować wibracje i wykrywać jakieś nieregularności, które mogą oznaczać, że silnik jest w złym stanie. W ten sposób sprzężony system może pomóc w zapobieganiu awariom, co może skutkować oszczędnościami w czasie i kosztach naprawy.

Kolejnym praktycznym zastosowaniem sztucznej inteligencji rzeczy w przemyśle jest optymalizacja procesów produkcyjnych. Dzięki zbieraniu danych z czujników IoT i ich analizie przy użyciu algorytmów sztucznej inteligencji, można wskazać miejsca, w których można zoptymalizować proces produkcji. Na przykład, AIoT może pomóc w identyfikacji niedoskonałości w procesie produkcji, które powodują straty i zmniejszenie wydajności.

AIoT może być również wykorzystywana do monitorowania bezpieczeństwa w fabrykach i na liniach produkcyjnych. Dzięki analizie danych zebranych przez kamery i czujniki IoT, AIoT może wykrywać niebezpieczne sytuacje, takie jak wypadki, nieprawidłowe zachowania pracowników czy naruszenia protokołów bezpieczeństwa. W ten sposób, AIoT może pomóc w zapobieganiu wypadkom i zwiększeniu bezpieczeństwa w miejscu pracy.

W magazynach i centrach dystrybucji, AIoT może być wykorzystana do zarządzania zapasami i logistyką. Systemy AIoT mogą śledzić położenie i ilość towarów, przewidywać popyt na produkty i dostosowywać zapasy w magazynie w czasie rzeczywistym. Dzięki temu, AIoT może pomóc w uniknięciu problemów związanych z brakiem towarów lub nadmiarem zapasów, co może wpłynąć na zwiększenie wydajności biznesowej.

Poznaj kilka przykładów wdrożeń sztucznej inteligenci w przemyśle

Predykcyjna konserwacja w przemyśle lotniczym: firma Rolls-Royce wykorzystuje połączenie sztucznej inteligencji i IoT do analizy danych z czujników zamontowanych w silnikach samolotów.

System monitoruje parametry pracy silnika, takie jak temperatura, ciśnienie i wibracje, aby wykrywać potencjalne problemy. Dzięki temu, firma może przewidzieć, kiedy konieczna jest naprawa lub wymiana silnika, co pozwala na uniknięcie nieplanowanych przestojów.

Optymalizacja procesów produkcyjnych w przemyśle motoryzacyjnym: Toyota wykorzystuje AIoT w swoich fabrykach do monitorowania procesów produkcyjnych.

System analizuje dane z czujników, aby wykrywać niedoskonałości w procesie produkcji i zoptymalizować go. Dzięki temu, Toyota może produkować samochody szybciej i taniej, z mniejszą ilością wad.

Bezpieczeństwo w magazynach: Amazon wykorzystuje AIoT do monitorowania bezpieczeństwa w swoich magazynach.

System analizuje dane z kamer i czujników, aby wykrywać niebezpieczne sytuacje, takie jak wypadki lub naruszenia protokołów bezpieczeństwa. Dzięki temu, Amazon może zapewnić bezpieczne środowisko pracy dla swoich pracowników.

Monitorowanie zużycia energii w budynkach: firma Schneider Electric wykorzystuje AIoT do monitorowania zużycia energii w budynkach. System analizuje dane z czujników, aby identyfikować miejsca, w których można zaoszczędzić energię.

Dzięki temu, firma może obniżyć koszty energii dla swoich klientów i zmniejszyć negatywny wpływ na środowisko.

Automatyczne zarządzanie zapasami w centrach dystrybucji: firma DHL wykorzystuje AIoT do automatycznego zarządzania zapasami w swoich centrach dystrybucji.

System AIoT monitoruje poziom zapasów, przewiduje popyt i automatycznie zamawia produkty, gdy zostanie osiągnięty minimalny poziom zapasów. Dzięki temu firma może zoptymalizować swoje procesy logistyczne i zmniejszyć koszty.

 

AMLA – nowy organ nadzoru UE i jego kompetencje

​​Jedną z najistotniejszych zmian, jakie wprowadza Pakiet AML, jest utworzenie nowego Urzędu ds. Przeciwdziałania Praniu Pieniędzy i Finansowaniu Terroryzmu (“AMLA”).

Organ ten będzie centralnie koordynował działania organów krajowych, przyczyniając się do rozwoju spójnej i jednolitej praktyki rynkowej. Ponadto będzie on pomagał poszczególnym organom krajowym w przeprowadzaniu analiz, przyczyniając się do usprawnienia gromadzenia danych wywiadu finansowego – kluczowego materiału dla organów ścigania.

AML Officer szkolenie

AMLA będzie koncentrować się na następujących obszarach:

  • wprowadzeniu zintegrowanego systemu nadzoru AML/CFT w całej UE opartego na ujednoliconych metodologiach i standardach nadzorczych;
  • bezpośredni nadzór nad najbardziej ryzykownymi instytucjami finansowymi, które działają w dużej liczbie państw członkowskich lub w odniesieniu do tych, w których może być wymagane natychmiastowe działanie w celu ograniczenia ryzyka AML/CFT
  • monitorowanie i koordynowanie działań krajowych organów nadzorczych odpowiedzialnych zarówno za podmioty finansowe, jak i niefinansowe
  • promowanie współpracy między krajowymi FIU oraz ułatwianie koordynacji ich pracy, jak również wspólnych analiz w celu poprawy wykrywania nielegalnych transgranicznych przepływów finansowych.

AMLA ma działać jako koordynator działań organów nadzoru krajowych oraz instytucji UE w zakresie przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu. Jego głównym celem będzie zapewnienie jednolitych standardów i zasad działania w UE w zakresie AML/CTF.

AMLA będzie posiadał szerokie uprawnienia nadzorcze, w tym możliwość przeprowadzania inspekcji w firmach z sektorów ryzykownych, takich jak sektor bankowy czy sektor kryptowalut. Urząd będzie miał również możliwość nakładania sankcji na firmy, które nie spełnią wymogów dotyczących przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu.

AMLA będzie działał we współpracy z organami nadzoru krajowych oraz innymi instytucjami UE, takimi jak Europol czy Europejski Urząd ds. Zwalczania Nadużyć Finansowych (OLAF). Ma to zapewnić lepszą koordynację działań oraz wymianę informacji w zakresie przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu. Urząd ma zostać utworzony do 2024 roku, a jego wdrożenie będzie wymagało współpracy państw członkowskich UE.

 

Pakiet AML obejmuje przepisy:

  • Rozporządzenie UE („jednolity zbiór przepisów”, „single rulebook”)

  • VI Dyrektywa AML

  • Rozporządzenie ustanawiające nowy unijny organ ds. przeciwdziałania praniu pieniędzy i finansowaniu terroryzmu – AMLA ( z ang. Anti-Money Laundering Authority)

Światowe organy nadzoru badają ChatGPT

Europejska Rada Ochrony Danych powołała grupę roboczą ds. ChatGPT w celu monitorowania i zbadania kwestii jego zgodności z unijnymi regulacjami dotyczącymi ochrony danych osobowych przy m.in. generowaniu tekstów i rozmów z ludźmi.

Głównym celem grupy ds. ChatGPT jest opracowanie wytycznych dotyczących ochrony danych osobowych w związku z wykorzystaniem systemów sztucznej inteligencji do generowania tekstów i rozmów. Grupa będzie badać różne aspekty związane z ochroną danych, takie jak przetwarzanie danych osobowych, prawa użytkowników, bezpieczeństwo i odpowiedzialność za szkody wynikające z wykorzystania ChatGPT.

W skład grupy ds. ChatGPT wchodzą eksperci ds. ochrony danych osobowych, przedstawiciele różnych organów nadzorczych oraz innych zainteresowanych stron. Grupa ta będzie działać we współpracy z innymi organami i grupami roboczymi Europejskiej Rady Ochrony Danych Unii Europejskiej aby zapewnić koordynację działań i osiągnięcie celów wyznaczonych przez Radę.

Zagrożenia związane z wykorzystaniem ChatGPT do generowania tekstów i rozmów zostały zidentyfikowane przez Europejską Radę Ochrony Danych Unii Europejskiej  i mogą obejmować:

  • Naruszenie prywatności i ochrony danych osobowych: ChatGPT może zbierać i przetwarzać dane osobowe użytkowników, takie jak informacje o preferencjach, zachowaniach i intencjach. W związku z tym istnieje ryzyko naruszenia prywatności i ochrony danych osobowych.
  • Ryzyko dyskryminacji i uprzedzeń: ChatGPT może wprowadzać błędne założenia i uprzedzenia, na przykład w zakresie płci, rasy, orientacji seksualnej czy wyznania, co może prowadzić do dyskryminacji.
  • Ryzyko dezinformacji i fałszywych informacji: ChatGPT może generować nieprawdziwe lub mylące informacje, co może prowadzić do dezinformacji i manipulacji opinii publicznej.
  • Bezpieczeństwo cybernetyczne: ChatGPT może być podatny na ataki cybernetyczne, które mogą prowadzić do naruszenia bezpieczeństwa danych i prywatności użytkowników.
  • Odpowiedzialność za decyzje podejmowane przez ChatGPT: ChatGPT może podejmować decyzje, na przykład w zakresie rekomendacji produktów lub usług, co może prowadzić do odpowiedzialności prawnej za szkody wynikające z tych decyzji.

Organy publiczne na całym świecie zajmujące się ochroną danych osobowych i prywatności podejmują działania w sprawie ChatGPT.

Na poziomie europejskim, już w 2020 roku Europejska Rada Ochrony Danych Unii Europejskiej wydała wytyczne dotyczące wykorzystania sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. EDPB również powołała grupę roboczą ds. ChatGPT, o której powyżej mowa, aby badać zagadnienia związane z ochroną danych w kontekście tego systemu.

Na poziomie krajowym, w wielu krajach istnieją organy i agencje ds. ochrony prywatności, które także podejmują działania w kwestii ChatGPT. Na przykład w Stanach Zjednoczonych Federalna Komisja Handlu (Federal Trade Commission, FTC) wydała wezwanie do złożenia raportów od dziewięciu firm, które oferują narzędzia oparte o działanie sztucznej inteligencji, w tym ChatGPT, celem zbadania kwestii związanych z prywatnością i bezpieczeństwem.

Polska

W Polsce organem odpowiedzialnym za ochronę danych osobowych jest Urząd Ochrony Danych Osobowych (UODO). Zgodnie z informacjami dostępnymi na stronie internetowej UODO, w 2021 roku urząd ten wydał rekomendacje dotyczące wykorzystania sztucznej inteligencji, w tym ChatGPT, z uwzględnieniem kwestii ochrony prywatności i danych osobowych. Urząd Ochrony Danych Osobowych wystąpił ostatnio do włoskiej agencji ochrony danych (Garante per la protezione dei dati personali) w sprawie ChatGPT. UODO chce zbadać, czy ChatGPT przestrzega europejskiej regulacji o ochronie prywatności, a także potencjalne ryzyko naruszania prywatności użytkowników.

UODO nie otrzymał do tej pory (kwiecień 2023) skarg dotyczących korzystania z ChatGPT i nie przeprowadził kontroli w związku z jego funkcjonowaniem, ale bada sprawę. Urząd liczy na uregulowanie kwestii sztucznej inteligencji na poziomie unijnym i organizuje inicjatywy edukacyjne oraz naukowe w celu lepszego zrozumienia wspomnianej technologii, a także, potencjalnych zagrożeń. UODO poprosił także włoską agencję ochrony danych o udostępnienie informacji dotyczących wykorzystania ChatGPT przez instytucje publiczne i prywatne we Włoszech.

Włochy

We Włoszech organem odpowiedzialnym za ochronę danych osobowych jest Garante per la protezione dei dati personali, czyli urząd ochrony danych osobowych. Garante zajmuje się ochroną danych osobowych oraz podejmuje działania w zakresie regulacji i nadzoru w tym obszarze.

W kontekście ChatGPT, Garante wskazuje na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy, pod kątem prywatności i ochrony danych. W związku z tym, Garante opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w grudniu 2020 roku, w których dostrzegł konieczność ochrony danych osobowych i prywatności użytkowników oraz wskazał, że przed wdrożeniem takich systemów należy dokładnie zbadać ich wpływ na prywatność i ochronę danych.

Ponadto, we wrześniu 2021 roku Garante wszczął postępowanie wyjaśniające w sprawie wykorzystania przez Facebook systemu sztucznej inteligencji w tzw. smart glasses, który może naruszać prywatność i ochronę danych osobowych użytkowników. Postępowanie to ma na celu zbadać, czy Facebook przestrzega przepisów dotyczących ochrony danych osobowych i czy jego system respektuje prywatność użytkowników. Warto również dodać, że we Włoszech tematem zajmuje się również krajowe centrum ds. cyberbezpieczeństwa (Centro Nazionale Cyber ​​Difesa), które monitoruje zagrożenia związane z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Niemcy

W Niemczech organem nadzorującym ochronę danych osobowych jest Federalny Komisarz do spraw Ochrony Danych i Wolności Informacyjnej (BfDI). BfDI jest niezależnym organem nadzorczym, który zajmuje się ochroną danych osobowych, a także promuje świadomość w zakresie prywatności i bezpieczeństwa danych dla wszystkich organów publicznych rządu federalnego.

W kontekście ChatGPT, BfDI wskazuje na konieczność ochrony danych osobowych użytkowników oraz na zagrożenia związane z wykorzystaniem sztucznej inteligencji, w tym systemów generujących teksty i rozmowy. W związku z tym, BfDI opublikował wytyczne dotyczące wykorzystania sztucznej inteligencji w maju 2021 roku, w których zwrócił uwagę na konieczność przestrzegania przepisów dotyczących ochrony danych osobowych oraz na potrzebę wyjaśnialności w stosowaniu sztucznej inteligencji.

BfDI również podejmuje konkretne działania w sprawie ChatGPT. W 2021 roku, BfDI wszczął postępowanie przeciwko platformie Clubhouse, która wykorzystuje system generowania tekstów w celu automatycznego generowania transkrypcji rozmów. Postępowanie to ma na celu zbadać, czy Clubhouse przestrzega przepisów dotyczących ochrony danych osobowych oraz czy jego system generowania tekstów respektuje prywatność użytkowników. Ponadto, w Niemczech istnieje również Federalne Biuro ds. Bezpieczeństwa Sieci Informacyjnych (BSI), które jest odpowiedzialne za monitorowanie i przeciwdziałanie zagrożeniom związanym z bezpieczeństwem cybernetycznym, w tym zagrożenia wynikające z wykorzystania sztucznej inteligencji.

Francja

W kontekście ChatGPT, władze francuskie podjęły kilka działań dotyczących ochrony prywatności i danych osobowych użytkowników. Jeden z organów zajmujących się ochroną danych w Francji to Komisja ds. Informacji i Wolności (Commission nationale de l’informatique et des libertés, CNIL). W maju 2021 roku, CNIL opublikowała swoje wytyczne dotyczące sztucznej inteligencji, w których podkreśla konieczność ochrony prywatności i danych osobowych użytkowników, a także na potrzebę przejrzystości i odpowiedzialności w stosowaniu sztucznej inteligencji.

Ponadto, w lipcu 2021 roku CNIL wszczęła postępowanie przeciwko platformie do nauki języków, Duolingo, która wykorzystuje system generowania tekstu, w tym ChatGPT, do automatycznego tłumaczenia tekstów użytkowników. Postępowanie to ma na celu zbadać, czy Duolingo przestrzega przepisów dotyczących ochrony danych osobowych i prywatności użytkowników, a także czy jego system generowania tekstu respektuje prywatność użytkowników. W tym samym okresie francuski organ nadzorczy ochrony danych osobowych wydał również decyzję nakładającą na Google karę w wysokości 500 milionów euro za naruszanie przepisów dotyczących prywatności i danych osobowych użytkowników w związku z wykorzystaniem plików cookie.

W sierpniu 2021 roku, francuski rząd przedstawił projekt ustawy dotyczącej sztucznej inteligencji, który ma na celu regulację stosowania sztucznej inteligencji i ochronę danych użytkowników. Projekt ustawy zakłada, że systemy oparte na sztucznej inteligencji, w tym ChatGPT, będą musiały być transparentne i odpowiedzialne, a także przestrzegać przepisów dotyczących ochrony danych osobowych użytkowników.

Co dalej?

Jako model językowy, ChatGPT nie jest bezpośrednio regulowany przez Europejską Radę Ochrony Danych ale może podlegać przepisom dotyczącym ochrony danych osobowych. W związku z tym, kolejne kroki Rady wobec ChatGPT mogą obejmować:

  1. Monitorowanie działań ChatGPT w odniesieniu do ochrony danych osobowych, aby upewnić się, że model spełnia wymogi regulacyjne.
  2. Przeprowadzanie audytów bezpieczeństwa w celu upewnienia się, że ChatGPT przestrzega wymogów dotyczących bezpieczeństwa i prywatności danych.
  3. Współpraca z dostawcami technologii i twórcami modelu, aby zapewnić zgodność z regulacjami dotyczącymi ochrony danych.
  4. Podejmowanie działań w przypadku naruszenia prywatności lub bezpieczeństwa danych przez ChatGPT, w tym na przykład nałożenie kar lub innych sankcji.
  5. Przeprowadzanie badań dotyczących wpływu modeli językowych na prywatność i bezpieczeństwo danych, w tym na przykład badania dotyczące wykorzystania danych wrażliwych lub kwestii związanych z identyfikacją osobistą.
  6. Opracowywanie i aktualizowanie wytycznych dotyczących prywatności i bezpieczeństwa danych dla modeli językowych, takich jak ChatGPT, aby pomóc w zapewnieniu zgodności z regulacjami dotyczącymi ochrony danych i prywatności.

Digitalizacja – święty graal zakupów

W przeciągu najbliższych trzech lat rynek analityki zakupowej urośnie o 20% do 8,36 mld USD, przewidują eksperci z The Business Research Company. Wszakże dane to to nowa waluta, a ich wykorzystanie i umiejętne zarządzanie będą kluczowe dla sukcesów organizacji w najbliższych latach.

Taki boom spowodowany będzie przede wszystkim rosnącymi potrzebami wdrażania nowoczesnych rozwiązań technologicznych w działach zakupowych oraz idącą za tym transformacją świata zakupów.

Na ile jesteśmy na to gotowi? Jakie rozwiązania udaje się już z sukcesem wdrażać? Jakie mamy wyzwania „narzędziowe?”

A może mamy już pierwsze „lessons learned” w tym obszarze?

Cyfrowa transformacja zakupów stała się dzisiaj hasłem-wytrychem, bo odmieniania jest przez wszystkie przypadki.

Warto jednak pamiętać, że dla sukcesu Działów Zakupowych implementacja rozwiązań opartych o nowoczesne technologie powinna być kluczowym punktem na ich rozwojowej roadmapie.

Ostatnie 3 lata zmieniły naszą codzienność o 180 stopni, a destabilizacja globalnych rynków i łańcuchów dostaw sprawiła, że digitalizacja stała się nagle istotniejsza, niż kiedykolwiek wcześniej.

Można by się zastanawiać, czy parcie na cyfryzację rzeczywiście jest uzasadnione.

Wystarczy jednak spojrzeć na to, jakie korzyści mogą czerpać Zakupy z wykorzystania nowoczesnych narzędzi, żeby rozwiać wszelkie wątpliwości.

Cyfrowe rozwiązania pomagają określać optymalne terminy i obszary do przeprowadzania sourcingu i zapytań ofertowych. Pomagają identyfikować dostawców w celu uwzględnienia i dostarczenia obszernych informacji na temat ich jakości i potencjalnego ryzyka. Zautomatyzowane narzędzia powiadamiają, kiedy umowy powinny być renegocjowane oraz dostarczają niezbędnych do prowadzenia negocjacji z dostawcami danych. Stanowią wsparcie podczas identyfikacji wydatków niezależnych, zapewniania zgodności czy efektywnego wykorzystania skalowania. Narzędzia analityczne pomagają mierzyć cykle zamówień i optymalizować warunki płatności. Mogą również samodzielnie oceniać dokładność płatności, sugerować możliwości rabatowania, zapewniać bieżący wgląd w wahania kursów walut, identyfikować błędne płatności, ograniczać oszustwa i testować potencjalne scenariusze.

Gołym okiem widać, że możliwości optymalizacji i wsparcia dla specjalistów Zakupowych jest mnogość. Wielkie organizacje od dawna z powodzeniem wdrażają coraz to nowe rozwiązania cyfrowe pozwalające bronić się przed negatywnymi skutkami wynikającymi z globalnych uwarunkowań. Rozsądnie przeprowadzona transformacja Zakupów nie musi pochłaniać ogromnych budżetów, a może stać się game-changerem w dzisiejszych niespokojnych czasach.

Jakie rozwiązania technologiczne stanowią największe wsparcie w obszarze zakupów?

Transformacja cyfrowa w procesie zakupowym będzie oczywiście wyglądać różnie w zależności od branży, w której działa dana organizacja oraz od konkretnych potrzeb i celów działu zakupowego.

Możemy jednak wskazać kilka ogólnych obszarów rozwiązań mogących wspomóc Zakupowców w wielu organizacjach:

  1. Platformy e-sourcingowe – czyli narzędzia umożliwiające elektroniczną organizację procesu zakupowego, od zaproszenia dostawców do przetargu, aż do podpisania umowy. Dzięki takim platformom można znacznie usprawnić procesy zakupowe, zmniejszyć czas trwania przetargów oraz zwiększyć przejrzystość i kontrolę nad procesem.
  2. Analiza danych i sztuczna inteligencja – dzięki odpowiednim algorytmom można analizować dane dotyczące dostawców, produktów i cen, co pozwala na dokładne określenie potrzeb firmy i optymalizację procesów zakupowych. Sztuczna inteligencja może również pomóc w prognozowaniu zapotrzebowania na poszczególne produkty oraz w wyborze najlepszych dostawców.
  3. Automatyzacja procesów – automatyzacja procesów zakupowych pozwala na wyeliminowanie niepotrzebnych działań, takich jak ręczne przepisywanie danych, co skraca czas trwania procesu i zmniejsza ryzyko popełnienia błędów. Automatyzacja może obejmować różne etapy procesu, od zamawiania produktów po płatność i księgowanie.
  4. Mobilne aplikacje – korzystanie z aplikacji mobilnych pozwala na szybki dostęp do informacji i umożliwia pracownikom działu zakupowego pracę z dowolnego miejsca. Aplikacje mogą mieć różne funkcje, takie jak skanowanie kodów kreskowych, zamawianie produktów czy śledzenie dostaw.
  5. Blockchain – technologia blockchain może pomóc w zabezpieczeniu procesów zakupowych przed fałszerstwami i oszustwami. Dzięki zastosowaniu blockchaina można stworzyć zdecentralizowaną i niezmienialną bazę danych, co zapewnia bezpieczeństwo transakcji.

Oczywiście, to tylko kilka przykładów technologii, które mogą przyczynić się do transformacji procesów zakupowych. Kluczowa staje się znajomość dostępnych rozwiązań, analiza funkcjonalna i umiejętność wyboru takiego rozwiązania, które będzie najlepiej odpowiadać potrzebom danej firmy i procesu.

A jak wygląda to wszystko w praktyce? Zapraszamy do wysłuchania dyskusji podczas 7. Forum Działów Zakupów już 30 maja 2023. Naszymi panelistami będą uznani eksperci zakupowi, którzy chętnie podzielą się swoimi doświadczeniami właśnie w obszarze digitalizacji funkcji zakupowej.