Przejdź do treści
Poradnik

EU AI Act a Twój system zarządzania dokumentami

Praktyczny przewodnik po tym, co EU AI Act oznacza dla systemów DMS z AI — od OCR i automatycznego tagowania po chatboty.

Ostatnia aktualizacja: kwiecień 2026

Krótka odpowiedź

  • Większość funkcji AI w systemie zarządzania dokumentami — OCR, automatyczna klasyfikacja, ekstrakcja metadanych, wyszukiwanie — zalicza się do kategorii minimalnego ryzyka i nie wiąże się ze szczególnymi obowiązkami poza szkoleniami z zakresu umiejętności korzystania z AI.
  • Jeśli Twój DMS posiada chatbota AI lub generuje teksty (podsumowania, tłumaczenia), funkcje te należą do kategorii ograniczonego ryzyka i wymagają etykietowania przejrzystości do 2 sierpnia 2026 r.
  • Konkluzja: EU AI Act nie jest tak straszny, jak sugerują nagłówki — ale termin 2 sierpnia jest realny, a art. 4 (umiejętność korzystania z AI) obowiązuje już od lutego 2025 r. Czytaj dalej, aby poznać szczegóły.

Co wydarzy się 2 sierpnia 2026 roku?

EU AI Act (Rozporządzenie 2024/1689) wszedł w życie 1 sierpnia 2024 r., ale jego obowiązki są wprowadzane stopniowo. Największa fala wdrożeń przypada na 2 sierpnia 2026 r. — to wtedy zaczną obowiązywać wymogi przejrzystości dla systemów o ograniczonym ryzyku, pełny reżim zgodności dla systemów wysokiego ryzyka, obowiązki użytkowników (wdrażających) oraz kary finansowe.

Jeśli obsługujesz lub używasz systemu zarządzania dokumentami z funkcjami AI w UE, ten harmonogram ma znaczenie. Niektóre obowiązki już obowiązują. Inne nadejdą za miesiące, a nie lata.

Data Co zaczyna obowiązywać Status
1 sierpnia 2024 Wejście w życie AI Act (Rozporządzenie UE 2024/1689 opublikowane w Dzienniku Urzędowym) Zakończone
2 lutego 2025 Zakaz praktyk niedozwolonych (art. 5) — obowiązek budowania umiejętności korzystania z AI (art. 4) dotyczy wszystkich dostawców i użytkowników Obowiązuje
2 sierpnia 2025 Obowiązki dotyczące modeli AI ogólnego przeznaczenia (art. 51–56) — dotyczy dostawców modeli bazowych, takich jak OpenAI, Google, Anthropic Obowiązuje
2 sierpnia 2026 Obowiązki w zakresie przejrzystości (art. 50), wymogi dla systemów wysokiego ryzyka z załącznika III (art. 8–15), obowiązki podmiotów wdrażających (art. 26), rejestracja w bazie danych UE, uprawnienia egzekucyjne i kary Za 97 dni
2 sierpnia 2026 Przejrzystość: wszystkie chatboty AI muszą ujawniać swój charakter; wszystkie treści generowane przez AI muszą posiadać oznaczenia odczytywalne maszynowo Termin ostateczny
2 sierpnia 2027 Systemy wysokiego ryzyka z załącznika I — AI wbudowana w produkty regulowane (wyroby medyczne, pojazdy, maszyny) Nadchodzące

Digital Omnibus Act, obecnie będący przedmiotem negocjacji trójstronnych, może przesunąć terminy dla systemów wysokiego ryzyka (załącznik III) na grudzień 2027 r. Jednak obowiązki przejrzystości z art. 50 oraz wymóg umiejętności korzystania z AI z art. 4 pozostają niezmienione. Planuj działania na 2 sierpnia 2026 r.

Cztery poziomy ryzyka, wyjaśnione

EU AI Act klasyfikuje systemy AI na cztery poziomy w zależności od potencjalnej szkodliwości. Im wyższe ryzyko, tym surowsze obowiązki. W przypadku zarządzania dokumentami zrozumienie tych poziomów jest kluczowe — ponieważ to poziom ryzyka decyduje o tym, czy nie musisz robić nic, dodać etykietę informacyjną, czy przejść pełną ocenę zgodności.

ZAKAZANE Art. 5 — Całkowity zakaz WYSOKIE RYZYKO Załącznik III — Pełny reżim zgodności Biometria, zatrudnienie, ocena kredytowa... OGRANICZONE RYZYKO Art. 50 — Obowiązki w zakresie przejrzystości Chatboty, treści generowane przez AI MINIMALNE RYZYKO Brak obowiązkowych wymogów — większość oprogramowania OCR, autoklasyfikacja, filtry spamu, wyszukiwanie

Zdecydowana większość funkcji AI w oprogramowaniu do zarządzania dokumentami — OCR, automatyczna klasyfikacja, wyodrębnianie metadanych, wyszukiwanie pełnotekstowe — mieści się w kategorii minimalnego ryzyka. Są to wąskie zadania proceduralne, które nie podejmują decyzji dotyczących ludzi. Kolejna sekcja szczegółowo opisuje to funkcja po funkcji.

Poziom ryzyka Co tu trafia Obowiązki Maks. kara
Zakazane Social scoring, manipulacja podprogowa, identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych, rozpoznawanie emocji w miejscu pracy Całkowity zakaz (art. 5) 35 mln € / 7%
Wysokie ryzyko AI w biometrii, infrastrukturze krytycznej, zatrudnieniu, ocenie zdolności kredytowej, edukacji, organach ścigania, migracji Pełna zgodność: zarządzanie ryzykiem, ład danych, dokumentacja techniczna, rejestrowanie zdarzeń, nadzór ludzki, ocena zgodności, oznakowanie CE (art. 8–15) 15 mln € / 3%
Ograniczone ryzyko Chatboty AI, treści generowane przez AI (tekst, obrazy, dźwięk, wideo), rozpoznawanie emocji, deepfakes Tylko przejrzystość: ujawnienie użytkownikom charakteru AI, oznaczanie treści generowanych przez AI jako odczytywalnych maszynowo (art. 50) 15 mln € / 3%
Minimalne ryzyko Filtry spamu, AI w grach wideo, rankingi wyszukiwania, OCR, automatyczna klasyfikacja, większość oprogramowania biznesowego Brak obowiązkowych wymogów — jedynie Art. 4 dotyczący kompetencji w zakresie AI (dotyczy wszystkich poziomów). Zachęca się do stosowania dobrowolnych kodeksów postępowania 7,5 mln € / 1%

Ważny niuans: klasyfikacja ryzyka zależy od tego, co robi AI, a nie od tego, kto ją tworzy. Trzyosobowy startup i firma z listy Fortune 500 mają te same obowiązki w przypadku tego samego systemu AI. Prawo reguluje technologię, a nie organizację.

Gdzie plasuje się Twój DMS? Klasyfikacja funkcja po funkcji

To tutaj większość przewodników po EU AI Act zawodzi. Wyjaśniają one poziomy ryzyka w teorii, ale nigdy nie przypisują konkretnych funkcji oprogramowania do konkretnych poziomów. Jeśli korzystasz z systemu zarządzania dokumentami z AI, oto gdzie dokładnie znajduje się każda funkcja.

Poniższa klasyfikacja dotyczy ogólnego zarządzania dokumentami biznesowymi — fakturami, umowami, paragonami, korespondencją, polisami ubezpieczeniowymi. Jeśli Twój DMS jest używany w domenie wysokiego ryzyka (rekrutacja, decyzje kredytowe, triaż medyczny), klasyfikacja może ulec zmianie. Kontekst ma znaczenie.

Funkcja DMS Poziom ryzyka Co musisz zrobić
OCR (wyodrębnianie tekstu ze skanów) Minimalne Brak konkretnych obowiązków. OCR to narzędzie do rozpoznawania tekstu — nie podejmuje decyzji o ludziach.
Automatyczna klasyfikacja (faktura, umowa, paragon) Minimalne Brak konkretnych obowiązków. Rozpoznawanie wzorców do celów archiwizacji to „wąskie zadanie proceduralne” zgodnie z Art. 6(3)(a) — nie mieści się w żadnej kategorii załącznika III.
Wyodrębnianie metadanych (daty, kwoty, podmioty) Minimalne Brak konkretnych obowiązków. Wyodrębnianie ustrukturyzowanych danych z dokumentów to przetwarzanie przygotowawcze, a nie system podejmowania decyzji.
Chatbot AI (pytania i odpowiedzi o dokumenty, wyszukiwanie) Ograniczone Art. 50(1): Użytkownicy muszą zostać poinformowani o interakcji z AI przed jej rozpoczęciem lub w jej trakcie. Widoczna etykieta typu „Asystent AI” lub ikona gwiazdek z tekstem informacyjnym spełnia ten wymóg.
Podsumowania i teksty generowane przez AI Ograniczone Art. 50(2): Tekst syntetyczny musi być oznaczony jako wygenerowany przez AI w formacie nadającym się do odczytu maszynowego. Wyjątek: „funkcja wspomagająca standardową edycję”, która nie zmienia istotnie semantyki danych wejściowych.
Tłumaczenie dokumentów przez AI Ograniczone Art. 50(2): Przetłumaczony wynik to tekst wygenerowany przez AI. Należy go oznaczyć jako taki za pomocą metadanych do odczytu maszynowego — chyba że wynik ściśle odpowiada materiałowi źródłowemu (wyjątek dotyczący edycji wspomagającej).
Decyzje o zatrudnieniu lub kredytowe oparte na AI Wysokie ryzyko Pełna zgodność z Art. 8–15: system zarządzania ryzykiem, zarządzanie danymi, dokumentacja techniczna, automatyczne rejestrowanie zdarzeń, nadzór ludzki, ocena zgodności, oznakowanie CE, rejestracja w bazie danych UE.

Kluczowym mechanizmem prawnym, który chroni większość funkcji DMS przed zakwalifikowaniem do kategorii wysokiego ryzyka, jest Artykuł 6(3). Przewiduje on wyraźne odstępstwa dla systemów AI wykonujących „wąskie zadania proceduralne” (6(3)(a)), zadania, które „poprawiają wynik wcześniej zakończonej działalności ludzkiej” (6(3)(b)) lub „zadania przygotowawcze do oceny istotnej dla celów przypadków użycia wymienionych w załączniku III” (6(3)(d)). Automatyczna klasyfikacja sortująca faktury to wąskie zadanie proceduralne. Wyodrębnianie metadanych wyciągające daty i kwoty z umów to zadanie przygotowawcze. Żadne z nich nie wpływa istotnie na decyzję dotyczącą osoby.

Jednakże: jeśli automatyczna klasyfikacja w Twoim DMS jest używana do sortowania aplikacji o pracę w procesie rekrutacji lub do kierowania roszczeń ubezpieczeniowych do zatwierdzenia lub odrzucenia, ta sama funkcja może zostać przekwalifikowana jako funkcja wysokiego ryzyka — ponieważ kontekst przenosi ją do domeny z załącznika III (zatrudnienie lub dostęp do podstawowych usług). Sama funkcja nie determinuje poziomu ryzyka. Decyduje o tym przypadek użycia.

Artykuł 50: Obowiązki w zakresie przejrzystości dotyczące Twojego chatbota AI

Jeśli Twój system zarządzania dokumentami zawiera chatbota AI, funkcję podsumowywania lub jakąkolwiek formę tekstu generowanego przez AI, ma zastosowanie Artykuł 50. Jest to najważniejszy obowiązek dla większości produktów DMS — i staje się on wymagalny od 2 sierpnia 2026 r.

Artykuł 50 zawiera trzy obowiązki szczegółowe, które mają znaczenie dla zarządzania dokumentami:

Art. 50(1)

Ujawnienie interakcji z AI

Każdy system AI zaprojektowany do interakcji z ludźmi musi informować ich, że jest to AI — przed rozpoczęciem lub w momencie rozpoczęcia interakcji. Nie może to być ukryte w regulaminie. Musi być widoczne w punkcie kontaktu. Wyjątek: gdy jest to „oczywiste z okoliczności” — co jest trudne do spełnienia.

Art. 50(2)

Oznaczanie treści generowanych przez AI

Tekst syntetyczny, dźwięk, obraz lub wideo muszą być oznaczone jako wygenerowane przez AI w formacie nadającym się do odczytu maszynowego (metadane C2PA, znaki wodne itp.). Musi to być skuteczne, interoperacyjne, solidne i niezawodne. Wyjątek: edycja wspomagająca, która nie zmienia istotnie danych wejściowych.

Art. 50(4)

Ujawnienie deepfake / tekstu AI

Treści generowane przez AI publikowane do użytku publicznego muszą być wyraźnie oznakowane. Podmioty wdrażające muszą zachować oznaczenia do odczytu maszynowego od dostawców i dodać widoczne etykiety w momencie publikacji.

W przypadku DMS wpływ praktyczny jest prosty. Jeśli Twój system ma funkcję czatu AI, wyświetl wyraźny wskaźnik, że użytkownik wchodzi w interakcję z AI — etykietę, ikonę gwiazdek lub podobny sygnał wizualny. Jeśli Twój system generuje podsumowania, tłumaczenia lub wyjaśnienia, oznacz je jako wygenerowane przez AI w interfejsie i najlepiej w metadanych dokumentu. Nie są to uciążliwe wymagania. Większość nowoczesnych produktów DMS z funkcjami AI już to robi lub może wdrożyć to w kilka godzin.

Rozróżnienie między dostawcą a podmiotem wdrażającym ma znaczenie. AI Act nakłada obowiązek zaprojektowania funkcji przejrzystości na dostawcę (firmę tworzącą oprogramowanie), a obowiązek ich konfiguracji i wyświetlania na podmiot wdrażający (firmę korzystającą z oprogramowania). Jeśli jesteś dostawcą DMS w modelu SaaS, jesteś dostawcą — musisz wbudować mechanizm ujawniania w swój produkt. Jeśli jesteś firmą korzystającą z DMS, jesteś podmiotem wdrażającym — musisz upewnić się, że informacja jest widoczna dla Twoich użytkowników.

Artykuł 4: Kompetencje w zakresie AI są już wymagane

To obowiązek, który większość organizacji przeoczyła. Artykuł 4 wymaga od wszystkich dostawców i podmiotów wdrażających systemy AI — niezależnie od poziomu ryzyka — zapewnienia „wystarczającego poziomu kompetencji w zakresie AI” wśród personelu i osób obsługujących AI w ich imieniu. Obowiązuje on od 2 lutego 2025 r.

Obowiązuje już od 2 lutego 2025 r.

Artykuł 4 dotyczy każdej firmy korzystającej z AI — w tym Twojego systemu zarządzania dokumentami. Jeśli nie rozpocząłeś szkoleń z zakresu kompetencji AI, masz już zaległości. Certyfikacja nie jest wymagana, ale szkolenie musi być udokumentowane i możliwe do wykazania w przypadku audytu.

Co właściwie oznaczają „kompetencje w zakresie AI”? Wytyczne Komisji UE wyjaśniają, że samo odesłanie personelu do instrukcji obsługi systemu AI nie wystarczy. Zgodny z przepisami program powinien obejmować:

  • 1.Czym jest AI i jak działa — dostosowane do odbiorców (kadra zarządzająca, inżynierowie i użytkownicy końcowi potrzebują różnego poziomu szczegółowości)
  • 2.Możliwości i ograniczenia konkretnych systemów AI wdrażanych w Twojej organizacji
  • 3.Ryzyka, w tym uprzedzenia, błędy, halucynacje i skutki dla prywatności
  • 4.Obowiązki w zakresie nadzoru ludzkiego — co zrobić, gdy AI generuje nieoczekiwane, błędne lub szkodliwe wyniki
  • 5.Znaczenie EU AI Act dla konkretnej roli danej osoby
  • 6.Dokumentacja: pisemna polityka kompetencji AI obejmująca zakres, role, obszary tematyczne, rejestry obecności na szkoleniach i harmonogram przeglądów

W przypadku małego zespołu korzystającego z DMS z AI nie wymaga to formalnego programu szkoleniowego. Może to być tak proste, jak udokumentowane spotkanie wewnętrzne, podczas którego omówicie: jakie funkcje AI znajdują się w używanych przez nas narzędziach, co potrafią, a czego nie, oraz co zrobić, gdy wyniki wydają się błędne. Udokumentuj sesję, zanotuj uczestników i zaplanuj coroczne odświeżenie. To wystarczy w większości scenariuszy minimalnego i ograniczonego ryzyka.

Digital Omnibus Act: czy terminy ulegną zmianie?

19 listopada 2025 r. Komisja Europejska zaproponowała Digital Omnibus Act — pakiet uproszczeń legislacyjnych, który zmienia AI Act wraz z innymi regulacjami cyfrowymi (GDPR, Data Act, NIS 2). Wśród zmian proponuje się przesunięcie terminu dla systemów wysokiego ryzyka z załącznika III z 2 sierpnia 2026 r. na 2 grudnia 2027 r.

Według stanu na kwiecień 2026 r. Omnibus jest na etapie negocjacji trójstronnych. Parlament Europejski przyjął swoje stanowisko stosunkiem głosów 569-45 w marcu 2026 r. Rada również przyjęła swój mandat w marcu. Ustawa nie została jeszcze przyjęta. Pierwotne daty pozostają prawnie wiążące.

NIE objęte Omnibusem — nadal 2 sierpnia 2026 r.

  • ×Obowiązki w zakresie przejrzystości z Art. 50 (ujawnianie chatbota, oznaczanie treści)
  • ×Kompetencje AI z Art. 4 (już obowiązują od lutego 2025 r.)
  • ×Praktyki zakazane z Art. 5 (już obowiązują od lutego 2025 r.)
  • ×Obowiązki dotyczące modeli GPAI (obowiązują od sierpnia 2025 r.)

Mogą zostać opóźnione, JEŚLI Omnibus zostanie przyjęty

  • Obowiązki dotyczące systemów wysokiego ryzyka z załącznika III (Art. 8–15) — proponowane opóźnienie do grudnia 2027 r.
  • Systemy wysokiego ryzyka wbudowane w produkty z załącznika I — proponowane opóźnienie do sierpnia 2028 r.

Praktyczna rada: nie traktuj Omnibusa jako wymówki do zwlekania. Nawet jeśli terminy dla wysokiego ryzyka zostaną przesunięte, prace nad ładem korporacyjnym — inwentaryzacja AI, klasyfikacja ryzyka, dokumentacja, logowanie, projektowanie nadzoru — są identyczne. A obowiązki, które mają największe znaczenie dla produktów DMS (przejrzystość i kompetencje), pozostają bez zmian. Przygotuj się teraz, a ewentualne opóźnienie stanie się buforem czasowym, a nie czasem straconym.

Co zrobić w tym miesiącu: praktyczna lista kontrolna

Niezależnie od tego, czy tworzysz, sprzedajesz, czy używasz systemu zarządzania dokumentami z funkcjami AI, oto co powinieneś zrobić przed 2 sierpnia 2026 r. Kroki są uporządkowane według pilności — zacznij od góry.

!

Zajmij się kompetencjami AI teraz (już po terminie)

Artykuł 4 obowiązuje od lutego 2025 r. Przeprowadź wewnętrzną sesję na temat narzędzi AI, których używa Twój zespół. Udokumentuj, co zostało omówione, kto uczestniczył i kiedy. Może to być 90-minutowe spotkanie — nie wielotygodniowy kurs. Zaplanuj coroczne odświeżenie.

1

Zrób inwentaryzację funkcji AI

Wymień każdą funkcję opartą na AI w swoim stosie oprogramowania: OCR, automatyczną klasyfikację, chatbota, podsumowywanie, tłumaczenie, silnik rekomendacji. Dla każdej z nich zanotuj, czy wchodzi w bezpośrednią interakcję z użytkownikami i czy generuje treści.

2

Zaklasyfikuj każdą funkcję według poziomu ryzyka

Skorzystaj z tabeli w sekcji 3 tego przewodnika. Przypisz każdą funkcję AI do poziomu ryzyka. Udokumentuj swoje uzasadnienie — to jest zapis, o który poprosiłby audytor. Większość funkcji DMS będzie należeć do kategorii minimalnego lub ograniczonego ryzyka.

3

Wdróż etykietowanie przejrzystości

Dla każdej funkcji o ograniczonym ryzyku (chatbot, generowanie tekstu): dodaj widoczną informację o AI w punkcie interakcji. W przypadku tekstu generowanego przez AI: dodaj metadane do odczytu maszynowego oznaczające go jako syntetyczny. Sprawdź, czy informacje są widoczne przy pierwszej interakcji — a nie ukryte w ustawieniach.

4

Przejrzyj swój dziennik zdarzeń (audit trail)

Choć nie jest to obowiązkowe dla systemów o minimalnym ryzyku, prowadzenie logów wyników generowanych przez AI, korekt użytkowników i decyzji systemowych jest dobrą praktyką. Jeśli Twój DMS ma już dziennik zdarzeń (większość ma), sprawdź, czy obejmuje on działania AI — a nie tylko dostęp do dokumentów.

5

Dokumentuj wszystko

Stwórz prosty rejestr zgodności: inwentaryzację AI, klasyfikację ryzyka, dowody szkolenia z kompetencji AI oraz wdrożenie przejrzystości. Dokument ten nie musi być obszerny — 2-3 stronicowe wewnętrzne podsumowanie wystarczy dla większości MŚP korzystających z systemów o minimalnym/ograniczonym ryzyku.

Rzeczywistość MŚP: co mały zespół faktycznie musi zrobić

W EU AI Act nie ma zwolnienia ze względu na wielkość firmy. Trzyosobowy startup ma te same obowiązki co firma z listy Fortune 500 w przypadku tego samego systemu AI. Prawo reguluje to, co robi AI, a nie to, kto ją obsługuje.

Mimo to, AI Act nie jest ślepy na realia MŚP. Kilka przepisów jest specjalnie dostosowanych do mniejszych firm — obniżone kary, uproszczona dokumentacja, priorytetowy dostęp do piaskownic regulacyjnych i obniżone opłaty za ocenę zgodności.

Twoje funkcje AI OCR, autotagowanie, ekstrakcja metadanych, wyszukiwanie Minimalne Chatbot AI, generowanie tekstu, podsumowania Ograniczone Decyzje o zatrudnieniu oparte na AI, ocena kredytowa Wysokie Większość funkcji DMS wpada do stref zielonej i niebieskiej

Oto co EU AI Act oferuje konkretnie małym i średnim przedsiębiorstwom:

Przepis Co to oznacza dla MŚP
Art. 99(6) — Limity kar W przypadku MŚP stosuje się niższą z dwóch alternatywnych kar. Naruszenia zakazane: limit 35 mln € (nie 7% obrotu). Wysokie ryzyko: limit 15 mln € (nie 3%). Oznacza to, że mała firma nigdy nie zostanie ukarana procentem przychodów, jeśli stały limit jest niższy.
Art. 63 — Uproszczony QMS Mikroprzedsiębiorstwa (<10 pracowników, <2 mln € obrotu) mogą spełniać wymogi części systemu zarządzania jakością w uproszczony sposób. Mniej formalności, te same zasady.
Art. 62–63 — Piaskownice regulacyjne Każde państwo członkowskie UE musi ustanowić co najmniej jedną piaskownicę regulacyjną do sierpnia 2026 r. MŚP i startupy mają priorytetowy dostęp z obniżonymi lub zniesionymi opłatami.
Art. 11(2) — Uproszczona dokumentacja Komisja jest uprawniona do stworzenia uproszczonego formatu dokumentacji technicznej z załącznika IV, specjalnie dla MŚP i startupów.

Dla typowej 5-osobowej firmy korzystającej z DMS z AI: całkowity wysiłek związany ze zgodnością to prawdopodobnie jedna udokumentowana sesja kompetencji AI, inwentaryzacja funkcji AI (jedna strona), klasyfikacja ryzyka (większość funkcji będzie niskiego ryzyka) oraz sprawdzenie, czy dostawca DMS wdrożył etykietowanie przejrzystości. Szacowany koszt bezpośredni: zero do kilkuset euro. Szacowany czas: 10–15 godzin roboczych rozłożonych na kilka tygodni. Taka jest szczera rzeczywistość dla większości małych firm korzystających z AI w zarządzaniu dokumentami.

Jak Veluvanto pomaga w zachowaniu zgodności z EU AI Act

Veluvanto od pierwszego dnia było projektowane z myślą o unijnych wymogach regulacyjnych. Oto co platforma już zapewnia w ramach zgodności z AI Act — bez dodatkowej konfiguracji:

  • Ujawnienie interakcji z AI: każda odpowiedź generowana przez AI w czacie Veluvanto jest oznaczona ikoną gwiazdek, wyraźnie wskazującą na treści wygenerowane przez AI. Użytkownicy zawsze wiedzą, kiedy wchodzą w interakcję z AI.
  • Dziennik zdarzeń (audit trail): wszystkie działania AI — analiza dokumentów, zapytania na czacie, przypisywanie tagów, tworzenie przypomnień — są rejestrowane z sygnaturami czasowymi, identyfikatorami użytkowników i szczegółami działań. Spełnia to wymogi logowania najlepszych praktyk dla systemów o ograniczonym ryzyku.
  • Śledzenie użycia AI: rejestry użycia na użytkownika śledzą zużycie kredytów AI, użyty model i typ działania — zapewniając szczegółowe logowanie wspierające wymogi odpowiedzialności.
  • Przechowywanie danych w UE: wszystkie dane są przechowywane i przetwarzane w centrach danych w UE. Brak elastycznego routingu, brak awaryjnego przesyłania do USA, brak wyjątków. Twoje dokumenty nigdy nie opuszczają UE.
  • Kontrola użytkownika nad działaniami AI: użytkownicy mogą w dowolnym momencie przeglądać, edytować i nadpisywać każdą klasyfikację, tag lub metadane wygenerowane przez AI. AI pracuje w tle, aby oszczędzać Twój czas, ale to Ty zachowujesz kontrolę nad swoimi dokumentami.
  • Brak trenowania na Twoich danych: Veluvanto nigdy nie używa dokumentów klientów do trenowania modeli AI. Twoje dane są przetwarzane wyłącznie dla Twojej korzyści.

Te funkcje nie sprawiają, że zgodność jest automatyczna — nadal musisz zadbać o szkolenia z kompetencji AI i prowadzić własną dokumentację. Oznaczają one jednak, że platforma, na której polegasz, jest już przygotowana na nadchodzące otoczenie regulacyjne.

Źródła i dalsza lektura

Ten przewodnik opiera się na oficjalnym tekście EU AI Act oraz autorytatywnych analizach. Pełną treść rozporządzenia i konkretne artykuły, do których się odwołujemy, znajdziesz w poniższych źródłach.

  1. Pełny tekst EU AI Act — Rozporządzenie (UE) 2024/1689 — Dziennik Urzędowy Unii Europejskiej (eur-lex.europa.eu)
  2. Artykuł 50 (Obowiązki w zakresie przejrzystości dla systemów o ograniczonym ryzyku) — artificialintelligenceact.eu/article/50
  3. Artykuł 6 i Załącznik III (Klasyfikacja wysokiego ryzyka i odstępstwa) — artificialintelligenceact.eu/article/6 oraz artificialintelligenceact.eu/annex/3
  4. Pytania i odpowiedzi Komisji UE dotyczące kompetencji AI — digital-strategy.ec.europa.eu
  5. Digital Omnibus Act — stanowisko Parlamentu Europejskiego przyjęte 26 marca 2026 r. (europarl.europa.eu)
  6. Artykuł 99 (Kary i przepisy dotyczące MŚP) — artificialintelligenceact.eu/article/99
  7. Broszura informacyjna Accountancy Europe dla MŚP na temat AI Act — accountancyeurope.eu

Często zadawane pytania

Czy EU AI Act dotyczy mojej małej firmy?
Tak. Nie ma zwolnienia ze względu na wielkość firmy. Jeśli Twoja firma korzysta z AI — nawet poprzez narzędzia SaaS innych firm, takie jak DMS — ma zastosowanie Art. 4 (kompetencje w zakresie AI). Praktyczny wpływ dla większości małych firm korzystających z AI o minimalnym ryzyku jest niewielki: udokumentowana sesja szkoleniowa i wewnętrzna inwentaryzacja AI. Prawo reguluje technologię, a nie wielkość firmy.
Czy OCR jest uważany za AI w świetle EU AI Act?
To zależy od implementacji. Tradycyjny OCR oparty na regułach (jak podstawowy Tesseract) może nie spełniać definicji systemu AI zawartej w ustawie. Jednak nowoczesny OCR wykorzystujący uczenie maszynowe do analizy układu, rozpoznawania pisma ręcznego lub wyodrębniania tekstu z uwzględnieniem kontekstu prawdopodobnie się kwalifikuje. Mimo to OCR zalicza się do kategorii minimalnego ryzyka bez konkretnych obowiązków poza kompetencjami AI.
Czy muszę oznaczać podsumowania generowane przez AI w moim DMS?
Zgodnie z Artykułem 50(2), tak — tekst syntetyczny musi być oznaczony jako wygenerowany przez AI w formacie nadającym się do odczytu maszynowego do 2 sierpnia 2026 r. Istnieje wyjątek dla „edycji wspomagającej”, która nie zmienia istotnie danych wejściowych. Podsumowanie, które ściśle parafrazuje treść źródłową, może kwalifikować się do tego wyjątku, ale oryginalna analiza lub wygenerowany tekst już nie. W razie wątpliwości — oznacz go.
Jaka jest różnica między dostawcą a podmiotem wdrażającym?
Dostawca opracowuje lub wprowadza system AI do obrotu (np. dostawca DMS, taki jak Veluvanto). Podmiot wdrażający korzysta z systemu AI w kontekście zawodowym (np. firma subskrybująca DMS). Obie strony mają obowiązki wynikające z AI Act, ale różnią się one: dostawcy muszą wbudować funkcje zgodności w produkt; podmioty wdrażające muszą korzystać z produktu zgodnie z instrukcjami dostawcy, wyznaczyć nadzór ludzki i prowadzić logi.
Co się stanie, jeśli nic nie zrobię przed 2 sierpnia 2026 r.?
W przypadku kompetencji AI (Art. 4): jesteś już niezgodny z przepisami od lutego 2025 r. W przypadku przejrzystości (Art. 50): po 2 sierpnia 2026 r. brak ujawnienia interakcji z AI lub oznaczania treści generowanych przez AI może skutkować karami do 15 mln € lub 3% światowego obrotu (w zależności od tego, która kwota jest wyższa; dla MŚP stosuje się niższą kwotę). W praktyce egzekwowanie przepisów prawdopodobnie skupi się najpierw na przypadkach wysokiego ryzyka i głośnych sprawach — ale zapewnienie zgodności jest proste i niedrogie, więc nie ma powodu, by czekać.
Czy Digital Omnibus Act opóźni te wymagania?
Omnibus może opóźnić obowiązki dotyczące wysokiego ryzyka z załącznika III (z sierpnia 2026 r. na grudzień 2027 r.), ale NIE opóźni obowiązków w zakresie przejrzystości z Art. 50, kompetencji AI z Art. 4 ani praktyk zakazanych z Art. 5. Są to obowiązki najbardziej istotne dla systemów zarządzania dokumentami. Nawet jeśli Omnibus zostanie przyjęty, termin 2 sierpnia 2026 r. dla przejrzystości i luty 2025 r. dla kompetencji pozostają bez zmian.

Przestań polować na dokumenty. Zacznij je znajdować.

Wypróbuj za darmo. Karta kredytowa nie jest wymagana. Przejdź na wyższy plan tylko wtedy, gdy będziesz gotowy.

🔒 Chmura w UE · Bez karty kredytowej · 14-dniowa gwarancja zwrotu pieniędzy