Pierwsze miesiące 2024 r. okazały się ważnym czasem dla rozwoju narzędzi AI – 13 marca Parlament Europejski przyjął bowiem tekst rozporządzenia Artificial Intelligence Act. Mimo że AI Act jeszcze nie obowiązuje, nic nie stoi na przeszkodzie, by już teraz ocenić warunki korzystania z produktów AI w nowy sposób.
Wydaje się, że kluczowe jest w tym przypadku pojęcie „instrukcje użytkowania” (ang. instruction for use), które oznacza informacje dostarczone przez dostawcę w celu poinformowania podmiotu wdrażającego w szczególności o zamierzonym celu i właściwym użytkowaniu systemu sztucznej inteligencji. Z kolei dostawca (ang. provider) to osoba fizyczna lub prawna, organ publiczny, agencja itp., która opracowuje system sztucznej inteligencji lub jej model ogólnego przeznaczenia. Istnieje również możliwość, że dostawca zleca opracowanie systemu lub modelu sztucznej inteligencji ogólnego przeznaczenia i wprowadza go do obrotu lub oddaje system do użytku pod własną nazwą czy znakiem towarowym (odpłatnie lub nie). Natomiast podmiot wdrażający (ang. deployer) oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot korzystający z systemu AI w ramach swoich uprawnień, z wyjątkiem sytuacji, gdy jest on wykorzystywany w ramach osobistej działalności nieprofesjonalnej.
Stąd też należy rozważyć, jakie informacje musi przekazać dostawca (np. podmiot, który opracował ChatGPT), aby podmiot wdrażający (wykorzystujący model AI) użytkował system sztucznej inteligencji w sposób właściwy oraz zgodny z zamierzonym celem. Mamy na myśli zastosowanie, do którego system sztucznej inteligencji jest przeznaczony przez dostawcę, w tym konkretny kontekst i warunki użytkowania określone w informacjach dostarczonych przez dostawcę w instrukcjach, materiałach promocyjnych lub sprzedażowych, oświadczeniach, a także w dokumentacji technicznej.
Instrukcja użytkowania
Motyw 72 AI Act wiąże instrukcje użytkowania z przejrzystością w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka przed ich wprowadzeniem do obrotu lub oddaniem do użytku: „Systemy AI wysokiego ryzyka powinny być zaprojektowane w sposób umożliwiający podmiotom wdrażającym zrozumienie sposobu działania systemu AI, ocenę jego funkcjonalności oraz zrozumienie jego mocnych stron i ograniczeń”. Powinny im towarzyszyć odpowiednie dane dla podmiotu wdrażającego, przybierające postać instrukcji użytkowania opisujących charakterystykę, możliwości i ograniczenia działania systemu sztucznej inteligencji. Możemy wśród nich wyszczególnić informacje na temat:
- możliwych znanych lub przewidywalnych okoliczności związanych z użytkowaniem systemu sztucznej inteligencji wysokiego ryzyka, w tym działań podmiotu wdrażającego, które mogą wpływać na zachowanie i działanie systemu, w ramach których system może prowadzić do zagrożeń dla zdrowia, bezpieczeństwa i praw podstawowych;
- zmian, które zostały z góry określone i ocenione pod kątem zgodności przez dostawcę;
- odpowiednich środków nadzoru nad ludźmi, w tym środków ułatwiających interpretację wyników systemu sztucznej inteligencji przez podmioty wdrażające.
Celem instrukcji użytkowania jest pomoc podmiotom wdrażającym w korzystaniu z systemu i wspieranie podejmowania przez nie świadomych decyzji: „Wdrażający powinni być między innymi w lepszej sytuacji, aby dokonać właściwego wyboru systemu, z którego zamierzają korzystać w świetle mających do nich zastosowanie obowiązków, zostać poinformowani o zamierzonych i wykluczonych zastosowaniach oraz prawidłowo i odpowiednio korzystać z systemu AI”. AI Act wskazuje, że aby zwiększyć czytelność i dostępność informacji zawartych w instrukcjach użytkowania, konieczne jest dołączenie przykładów dotyczących choćby ograniczeń oraz zamierzonych i wykluczonych zastosowań systemu sztucznej inteligencji.
Obowiązkiem dostawców jest zapewnienie kompletności, dostępności i zrozumiałości wspomnianych instrukcji („dostawcy powinni zapewnić, aby cała dokumentacja, w tym instrukcje użytkowania, zawierała znaczące, wyczerpujące, dostępne i zrozumiałe informacje, biorąc pod uwagę potrzeby i przewidywalną wiedzę docelowych użytkowników”), również w warstwie językowej („Instrukcje użytkowania powinny być dostępne w języku, który może być łatwo zrozumiany przez docelowych użytkowników, zgodnie z ustaleniami danego państwa członkowskiego”).
Systemy AI wysokiego ryzyka
Zgodnie z motywem 74 AI Act systemy sztucznej inteligencji wysokiego ryzyka powinny działać spójnie przez cały cykl życia i spełniać odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa, w świetle ich zamierzonego celu i zgodnie z ogólnie uznanym stanem wiedzy. W tym zakresie wskaźniki wydajności należy zadeklarować w instrukcji użytkowania, a także zakomunikować w jasny i zrozumiały sposób, wolny od nieporozumień lub wprowadzających w błąd stwierdzeń.
Z drugiej strony AI Act wprost wskazuje, że korzystanie z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami użytkowania jest obowiązkiem podmiotu wdrażającego. W tym celu powinien on podjąć odpowiednie środki techniczne i organizacyjne, jak również „zapewnić, aby osoby wyznaczone do wdrożenia instrukcji użytkowania i nadzoru ludzkiego, jak określono w AI Act, posiadały niezbędne kompetencje, w szczególności odpowiedni poziom znajomości sztucznej inteligencji, przeszkolenie i uprawnienia do właściwego wykonywania tych zadań. Obowiązki te powinny pozostawać bez uszczerbku dla innych obowiązków podmiotu wdrażającego w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka na mocy prawa unijnego lub krajowego”.
Obowiązki i regulacje
Ocena obowiązków w zakresie instrukcji użytkowania wiąże się bezpośrednio z przepisami art. 13 AI Act. Podkreśla on konieczną przejrzystość działania: „Systemy sztucznej inteligencji wysokiego ryzyka są projektowane i rozwijane w taki sposób, aby zapewnić wystarczającą przejrzystość ich działania, umożliwiającą podmiotom wdrażającym interpretację wyników systemu i ich odpowiednie wykorzystanie. Należy zapewnić odpowiedni rodzaj i stopień przejrzystości w celu osiągnięcia zgodności z odpowiednimi obowiązkami dostawcy i podmiotu wdrażającego określonymi w sekcji 3”. W celu zapewnienia przejrzystości funkcjonowania „systemom sztucznej inteligencji wysokiego ryzyka towarzyszą instrukcje użytkowania w odpowiednim formacie cyfrowym lub innym, zawierające zwięzłe, kompletne, prawidłowe i jasne informacje, które są istotne, dostępne i zrozumiałe dla podmiotów wdrażających”.
Regulacje dotyczące instrukcji użytkowania nie wyczerpują zagadnień dokumentacyjnych dotyczących AI. Artykuł 11 AI Act wprowadza bowiem obowiązek sporządzenia dokumentacji technicznej przed wprowadzeniem systemu do obrotu lub oddaniem do użytku, a następnie wymaga jego bieżącej aktualizacji. Dokumentacja techniczna stanowi element realizacji rozliczalności modeli AI wysokiego ryzyka („Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi określone w sekcji 2 AI Act i zapewnia właściwym organom krajowym i jednostkom notyfikowanym niezbędne informacje w przejrzystym i kompleksowym formularzu oceny zgodności systemu AI z tymi przepisami wymagania”). Powinna ona określać co najmniej:
- ogólny opis systemu sztucznej inteligencji;
- szczegółowy opis elementów modelu AI i procesu jego rozwoju;
- szczegółowe informacje na temat monitorowania, funkcjonowania i kontroli systemu;
- opis adekwatności wskaźników wydajności dla konkretnego AI;
- szczegółowy opis systemu zarządzania ryzykiem zgodnie z art. 9 AI Act;
- opis istotnych zmian dokonanych przez dostawcę w systemie w trakcie jego cyklu życia;
- wykaz norm zharmonizowanych zastosowanych w całości lub w części, do których odniesienia zostały opublikowane w Dzienniku Urzędowym Unii Europejskiej;
- kopię deklaracji zgodności UE;
- szczegółowy opis istniejącego systemu oceny działania AI w fazie po wprowadzeniu do obrotu zgodnie z art. 72 AI Act, w tym plan monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 72 ust. 3.
Szczegóły dotyczące dokumentacji technicznej zostały zawarte w załączniku nr 4 do AI Act.
Odporność i cyberbezpieczeństwo
Przyglądając się instrukcjom użytkowania, nie sposób pominąć wymagań określonych w art. 15 omawianego aktu. Zawiera on regulacje, zgodnie z treścią których systemy sztucznej inteligencji wysokiego ryzyka muszą być projektowane i rozwijane w taki sposób, aby osiągały odpowiedni poziom dokładności, odporności i cyberbezpieczeństwa oraz aby działały niezmiennie pod tymi względami przez cały cykl życia. Instrukcja użytkowania powinna określać poziomy i odpowiednie wskaźniki dokładności systemów.
Przepis wskazuje przy tym na parametry odporności („muszą być jak najbardziej odporne na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub środowisku, w którym system działa, w szczególności ze względu na ich interakcję z osobami fizycznymi lub innymi systemami”), sposoby osiągnięcia odporności („W tym celu należy podjąć środki techniczne i organizacyjne. Odporność systemów sztucznej inteligencji wysokiego ryzyka można osiągnąć za pomocą technicznych rozwiązań nadmiarowych, które mogą obejmować plany tworzenia kopii zapasowych lub plany awaryjne”), a także ryzyka związane z wprowadzeniem do obrotu lub oddaniem do użytku systemów sztucznej inteligencji wysokiego ryzyka, które nadal uczą się po rozpoczęciu ich eksploatacji, cytując: „są opracowywane w taki sposób, aby wyeliminować lub w jak największym stopniu ograniczyć ryzyko potencjalnie nieobiektywnych danych wyjściowych wpływających na dane wejściowe do przyszłych operacji („pętle sprzężenia zwrotnego”) oraz aby zapewnić należyte uwzględnienie wszelkich takich pętli sprzężenia zwrotnego za pomocą odpowiednich środków łagodzących”.
Z kolei w zakresie cyberbezpieczeństwa AI Act wymaga, aby systemy sztucznej inteligencji wysokiego ryzyka zapewniały odporność na próby zmiany ich wykorzystania, wyników lub działania przez nieupoważnione osoby trzecie poprzez użycie luk w zabezpieczeniach. Stosowane rozwiązania techniczne muszą być dostosowane do odpowiednich okoliczności i zagrożeń, a te mające na celu wyeliminowanie dziur w zabezpieczeniach specyficznych dla AI obejmują:
- środki pozwalające na zapobieganie, wykrywanie, reagowanie, rozwiązywanie i kontrolowanie ataków mających na celu manipulowanie zestawem danych szkoleniowych („zatruwanie danych”) lub wstępnie wyszkolonymi komponentami wykorzystywanymi w szkoleniu („zatruwanie modelu”), danymi wejściowymi w celu spowodowania, że model sztucznej inteligencji popełni błąd („przykłady przeciwnika” lub „unikanie modelu”);
- ataki na poufność lub wady modelu.
Obowiązkiem każdego dostawcy systemu sztucznej inteligencji wysokiego ryzyka jest wprowadzenie mechanizmu zarządzania jakością, który zapewni zgodność systemu z AI Act. Wymaga on dokumentowania w sposób systematyczny i uporządkowany w formie pisemnych polityk, procedur i instrukcji. Według przepisów zawartych w akcie minimalna zawartość takiego systemu powinna zawierać:
- strategię zgodności z przepisami, w tym zgodność z procedurami oceny zgodności i procedurami zarządzania modyfikacjami systemu sztucznej inteligencji wysokiego ryzyka;
- techniki, procedury i systematyczne działania, które mają być stosowane do projektowania, kontroli i weryfikacji projektu systemu AI wysokiego ryzyka;
- techniki, procedury i systematyczne działania, które mają być stosowane do rozwoju, kontroli i zapewnienia jakości systemu AI wysokiego ryzyka;
- procedury badania, testowania i walidacji, które mają być przeprowadzane przed, w trakcie i po opracowaniu systemu AI wysokiego ryzyka, oraz częstotliwość ich przeprowadzania;
- specyfikacje techniczne, w tym normy, które mają być stosowane, oraz, w przypadku gdy odpowiednie normy zharmonizowane nie są stosowane w całości lub nie obejmują wszystkich odpowiednich wymogów określonych w sekcji 2, środki, które należy zastosować w celu zapewnienia zgodności systemu AI wysokiego ryzyka z tymi wymogami;
- systemy i procedury zarządzania danymi, w tym pozyskiwanie danych, gromadzenie danych, analiza danych, oznaczanie danych, przechowywanie danych, filtrowanie danych, eksploracja danych, agregacja danych, zatrzymywanie danych i wszelkie inne operacje dotyczące danych, które są wykonywane przed wprowadzeniem do obrotu lub oddaniem do użytku systemów sztucznej inteligencji wysokiego ryzyka oraz w tym celu;
- system zarządzania ryzykiem, o którym mowa w art. 9 AI Act;
- ustanowienie, wdrożenie i utrzymanie systemu monitorowania po wprowadzeniu do obrotu, zgodnie z art. 72 AI Act;
- procedury związane ze zgłaszaniem poważnych incydentów zgodnie z art. 73 AI Act;
- sposób komunikacji z właściwymi organami krajowymi, innymi odpowiednimi organami, w tym organami zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, k lientami lub innymi zainteresowanymi stronami;
- systemy i procedury prowadzenia rejestrów wszystkich istotnych dokumentów i informacji;
- zarządzanie zasobami, w tym środkami związanymi z bezpieczeństwem dostaw;
- ramy odpowiedzialności określające obowiązki kierownictwa i innych pracowników w odniesieniu do wszystkich aspektów wymienionych powyżej.
Wdrożenie powyższych aspektów jest proporcjonalne do wielkości organizacji usługodawcy. Dostawcy w każdym przypadku przestrzegają stopnia staranności i poziomu ochrony wymaganego do zapewnienia zgodności ich systemów sztucznej inteligencji wysokiego ryzyka z niniejszym rozporządzeniem.
Odpowiedzialność importerów, dystrybutorów i podmiotów wdrażających
Obowiązki dokumentacyjne obejmują również inne podmioty wskazane w AI Act: importerów, dystrybutorów oraz organizacje wdrażające systemy sztucznej inteligencji wysokiego ryzyka. W przypadku importerów (osoba fizyczna lub prawna znajdująca się lub mająca siedzibę w Unii, która wprowadza do obrotu system SI opatrzony nazwą lub znakiem towarowym osoby fizycznej lub prawnej mającej siedzibę w państwie trzecim) polegają one między innymi na sprawdzeniu, czy dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV oraz czy do systemu dołączono instrukcję użytkowania.
Z kolei dystrybutorzy (osoba fizyczna lub prawna w łańcuchu dostaw, inna niż dostawca lub importer, która udostępnia system sztucznej inteligencji na rynku unijnym) muszą sprawdzić, czy do systemu dołączono wspomnianą wyżej dokumentację.
Obowiązki podmiotów wdrażających systemy sztucznej inteligencji wysokiego ryzyka mają charakter pochodny względem powinności dostawców. Jak możemy przeczytać w AI Act, do zadań stojących przed organizacjami należy zaliczyć:
- podejmowanie przede wszystkim odpowiednich środków technicznych i organizacyjnych w celu zapewnienia korzystania z takich systemów zgodnie z instrukcjami użytkowania do nich dołączonymi;
- przydzielanie nadzoru ludzkiego osobom fizycznym posiadającym niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie. Ma to na celu zapobieganie lub minimalizowanie zagrożeń dla zdrowia, bezpieczeństwa lub praw bezpieczeństwa czy praw podstawowych, które mogą się pojawić, gdy system sztucznej inteligencji wysokiego ryzyka jest używany zgodnie z jego przeznaczeniem. Ma to również zastosowanie w warunkach racjonalnie przewidywalnego niewłaściwego użycia, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów określonych w niniejszej sekcji;
- sprawują kontrolę nad danymi wejściowymi, tj. dopilnowują, aby dane wejściowe były istotne i wystarczająco reprezentatywne w świetle zamierzonego celu systemu sztucznej inteligencji wysokiego ryzyka;
- monitorują działanie takiego systemu na podstawie instrukcji użytkowania oraz, w stosownych przypadkach, informują dostawców zgodnie z art. 72. Jeżeli podmioty wdrażające mają powody, by uznać, że użytkowanie systemu sztucznej inteligencji wysokiego ryzyka niezgodnie z instrukcjami może stwarzać ryzyko w rozumieniu art. 79 ust. 1, bez zbędnej zwłoki informują o tym dostawcę lub dystrybutora oraz właściwy organ nadzoru rynku i zawieszają użytkowanie tego systemu. W przypadku gdy podmioty wdrażające wykryły poważny incydent, niezwłocznie informują o nim najpierw dostawcę, a następnie importera lub dystrybutora oraz właściwe organy nadzoru rynku. Jeżeli podmiot wdrażający nie jest w stanie skontaktować się z dostawcą, art. 73 stosuje się odpowiednio. Obowiązek ten nie obejmuje szczególnie chronionych danych operacyjnych podmiotów wdrażających systemy sztucznej inteligencji, które są organami ścigania;
- w określonych przypadkach przeprowadzają przed pierwszym użyciem systemu sztucznej inteligencji wysokiego ryzyka ocenę wpływu na prawa podstawowe, jaki może mieć stosowanie takiego systemu.
Powyższa analiza stanowi jedynie wycinek problematyki sztucznej inteligencji w ujęciu prawnym. Mimo że procedury związane z przyjęciem AI Act nie są jeszcze ukończone, od marca 2024 roku nie sposób ignorować jego przepisów w przypadku tworzenia oraz wprowadzania do obrotu systemów AI. Regulacje te kładą duży nacisk na rozliczalność sztucznej inteligencji, również w aspekcie dokumentacyjnym, opierając się na transparentności oraz wykorzystaniu systemów, humanizacji nadzoru nad nimi oraz ich odporności i cyberbezpieczeństwa.
Wszystkie cytowane fragmenty są autorskimi tłumaczeniami z angielskiej wersji AI Act.
Autor
Tomasz Cygan
Adwokat, praktyk, autor publikacji z zakresu bezpieczeństwa informacji i ochrony danych osobowych. Audytor wewnętrzny normy ISO/IEC 27001:2014-12. Trener z wieloletnim doświadczeniem.