Skip to main content
Průvodce

Akt o AI a váš systém správy dokumentů

Praktický průvodce tím, co Akt o AI znamená pro systémy správy dokumentů (DMS) využívající AI – od OCR a automatického štítkování až po chatboty.

Naposledy aktualizováno: duben 2026

Stručná odpověď

  • Většina funkcí AI v systému správy dokumentů – jako OCR, automatická klasifikace, extrakce metadat nebo vyhledávání – spadá do kategorie minimálního rizika a nevyžaduje žádné specifické povinnosti kromě školení AI gramotnosti.
  • Pokud váš DMS obsahuje AI chatbota nebo generuje texty (shrnutí, překlady), tyto funkce představují omezené riziko a od 2. srpna 2026 vyžadují označení transparentnosti.
  • Sečteno a podtrženo: Akt o AI není tak děsivý, jak naznačují titulky – ale srpnový termín je reálný a článek 4 (AI gramotnost) platí již od února 2025. Čtěte dále pro podrobný rozbor.

Co se stane 2. srpna 2026?

Akt o AI (Nařízení 2024/1689) vstoupil v platnost 1. srpna 2024, ale jeho povinnosti nabíhají postupně. Největší vlna vymahatelnosti přichází 2. srpna 2026 – tehdy začnou současně platit povinnosti transparentnosti pro systémy s omezeným rizikem, režim pro vysoce rizikové systémy, povinnosti uživatelů (nasazovatelů) i vymáhání pokut.

Pokud v EU provozujete nebo používáte systém správy dokumentů s funkcemi AI, tento časový harmonogram je pro vás důležitý. Některé povinnosti již platí, jiné přijdou v řádu měsíců, nikoli let.

Datum Co začíná platit Stav
1. srpna 2024 Akt o AI vstupuje v platnost (Nařízení EU 2024/1689 zveřejněno v Úředním věstníku) Hotovo
2. února 2025 Zákaz zakázaných praktik (čl. 5) – povinnost AI gramotnosti (čl. 4) pro všechny poskytovatele a uživatele V platnosti
2. srpna 2025 Povinnosti pro modely AI pro obecné účely (čl. 51–56) – platí pro poskytovatele základních modelů jako OpenAI, Google, Anthropic V platnosti
2. srpna 2026 Povinnosti transparentnosti (čl. 50), požadavky na vysoce rizikové systémy (Příloha III, čl. 8–15), povinnosti uživatelů (čl. 26), registrace v databázi EU, pravomoci k vymáhání a pokuty Zbývá 97 dní
2. srpna 2026 Transparentnost: všechny AI chatboty musí přiznat svou povahu; veškerý AI generovaný obsah musí nést strojově čitelný příznak Termín
2. srpna 2027 Vysoce rizikové systémy dle Přílohy I – AI zabudovaná v regulovaných produktech (zdravotnické prostředky, vozidla, stroje) Nadcházející

Zákon Digital Omnibus Act, o kterém se aktuálně jedná v trilogu, může posunout termíny pro vysoce rizikové systémy (Příloha III) na prosinec 2027. Povinnosti transparentnosti podle článku 50 a požadavek na AI gramotnost podle článku 4 však zůstávají beze změny. Počítejte s 2. srpnem 2026.

Vysvětlení čtyř úrovní rizika

Akt o AI klasifikuje systémy AI do čtyř úrovní podle potenciální škodlivosti. Čím vyšší riziko, tím přísnější povinnosti. Pro správu dokumentů je pochopení těchto úrovní zásadní – určují totiž, zda nemusíte dělat nic, přidat štítek s upozorněním, nebo projít plným posouzením shody.

ZAKÁZANÉ Čl. 5 — Zcela zakázáno VYSOKÉ RIZIKO Příloha III — Plný režim shody Biometrie, zaměstnávání, úvěrový scoring... OMEZENÉ RIZIKO Čl. 50 — Povinnosti transparentnosti Chatboty, obsah generovaný AI MINIMÁLNÍ RIZIKO Žádné povinné povinnosti — většina softwaru OCR, auto-klasifikace, spam filtry, vyhledávání

Drtivá většina funkcí AI v softwaru pro správu dokumentů – OCR, automatická klasifikace, extrakce metadat, full-textové vyhledávání – spadá přímo do kategorie minimálního rizika. Jde o úzce vymezené procedurální úkoly, které nerozhodují o lidech. Další část to rozebírá funkci po funkci.

Úroveň rizika Co sem spadá Povinnosti Max. pokuta
Zakázané Sociální skórování, podprahová manipulace, biometrická identifikace v reálném čase na veřejnosti, rozpoznávání emocí na pracovišti Úplný zákaz (čl. 5) 35 mil. € / 7 %
Vysoké riziko AI v biometrice, kritické infrastruktuře, zaměstnanosti, úvěrovém skóringu, vzdělávání, vymáhání práva, migraci Plná shoda: řízení rizik, správa dat, technická dokumentace, protokolování, lidský dohled, posouzení shody, označení CE (čl. 8–15) 15 mil. € / 3 %
Omezené riziko AI chatboty, AI generovaný obsah (text, obrázky, audio, video), rozpoznávání emocí, deepfakes Pouze transparentnost: informovat uživatele o AI povaze, označit AI obsah jako strojově čitelný (čl. 50) 15 mil. € / 3 %
Minimální riziko Spamové filtry, AI ve videohrách, řazení výsledků vyhledávání, OCR, automatická klasifikace, většina firemního softwaru Žádné povinné závazky – pouze AI gramotnost dle čl. 4 (platí pro všechny). Dobrovolné kodexy chování jsou vítány. 7,5 mil. € / 1 %

Důležitý detail: klasifikace rizika závisí na tom, co AI dělá, nikoli na tom, kdo ji vytvořil. Startup o třech lidech i korporace z žebříčku Fortune 500 mají u stejného systému AI stejné povinnosti. Zákon reguluje technologii, nikoli organizaci.

Kam spadá váš DMS? Klasifikace funkcí

Zde většina příruček k Aktu o AI končí. Vysvětlují úrovně rizika abstraktně, ale nikdy nepřiřadí konkrétní funkce softwaru k jednotlivým úrovním. Pokud provozujete systém správy dokumentů s AI, zde je přesný přehled.

Následující klasifikace předpokládá běžnou správu firemních dokumentů – faktury, smlouvy, účtenky, korespondence, pojistky. Pokud je váš DMS používán ve vysoce rizikové oblasti (nábor, úvěrové rozhodování, lékařská triáž), klasifikace se může posunout výše. Na kontextu záleží.

Funkce DMS Úroveň rizika Co musíte udělat
OCR (vytěžování textu ze skenů) Minimální Žádné specifické povinnosti. OCR je nástroj pro rozpoznávání textu – nerozhoduje o lidech.
Automatická klasifikace (faktura, smlouva, účtenka) Minimální Žádné specifické povinnosti. Rozpoznávání vzorů pro zakládání je „úzce vymezený procedurální úkol“ podle čl. 6 odst. 3 písm. a) – nespadá do žádné kategorie v Příloze III.
Extrakce metadat (data, částky, subjekty) Minimální Žádné specifické povinnosti. Extrakce strukturovaných dat z dokumentů je přípravné zpracování, nikoli rozhodovací systém.
AI chatbot (dotazy nad dokumenty, hledání) Omezené Čl. 50 odst. 1: Uživatelé musí být informováni, že komunikují s AI, a to před zahájením nebo při zahájení interakce. Viditelné označení jako „AI asistent“ nebo ikona hvězdiček s vysvětlujícím textem postačuje.
AI generovaná shrnutí a texty Omezené Čl. 50 odst. 2: Syntetický text musí být označen jako generovaný AI ve strojově čitelném formátu. Výjimka: „asistenční funkce pro standardní úpravy“, která podstatně nemění sémantiku vstupu.
AI překlad dokumentů Omezené Čl. 50 odst. 2: Přeložený výstup je text generovaný AI. Označte jej jako takový strojově čitelnými metadaty – pokud výstup věrně nesleduje zdrojový materiál (výjimka pro asistenční úpravy).
Rozhodování o zaměstnání nebo úvěrech pomocí AI Vysoké riziko Plná shoda dle čl. 8–15: systém řízení rizik, správa dat, technická dokumentace, automatické protokolování, lidský dohled, posouzení shody, označení CE, registrace v databázi EU.

Klíčovým právním mechanismem, který drží většinu funkcí DMS mimo vysoce rizikovou zónu, je článek 6 odst. 3. Ten výslovně vyjímá systémy AI, které plní „úzce vymezené procedurální úkoly“ (6(3)(a)), úkoly, které „zlepšují výsledek dříve dokončené lidské činnosti“ (6(3)(b)), nebo „přípravné úkoly pro posouzení relevantní pro účely případů použití uvedených v Příloze III“ (6(3)(d)). Automatická klasifikace, která třídí faktury do kategorií, je úzce vymezený procedurální úkol. Extrakce metadat, která vytahuje data a částky ze smluv, je přípravný úkol. Ani jedno z toho materiálně neovlivňuje rozhodnutí o osobě.

Nicméně: pokud se automatická klasifikace ve vašem DMS používá k třídění žádostí o zaměstnání v náborovém procesu nebo k směrování pojistných událostí ke schválení či zamítnutí, stejná funkce by mohla být překlasifikována jako vysoce riziková – protože kontext ji posouvá do oblasti Přílohy III (zaměstnanost nebo přístup k základním službám). Funkce sama o sobě neurčuje úroveň rizika. Určuje ji případ použití.

Článek 50: Povinnosti transparentnosti pro vašeho AI chatbota

Pokud váš systém správy dokumentů obsahuje AI chatbota, funkci shrnutí nebo jakoukoli formu AI generovaného textu, platí pro vás článek 50. To je pro většinu produktů DMS nejrelevantnější povinnost – a stává se vymahatelnou 2. srpna 2026.

Článek 50 má tři dílčí povinnosti, které jsou pro správu dokumentů důležité:

Art. 50(1)

Zveřejnění interakce s AI

Jakýkoli systém AI navržený pro interakci s lidmi je musí informovat, že jde o AI – před zahájením nebo při zahájení interakce. Nesmí to být skryté v obchodních podmínkách, ale přímo v místě kontaktu. Výjimka: když je to „zřejmé z okolností“ – což je velmi vysoká laťka.

Art. 50(2)

Označování obsahu generovaného AI

Syntetický text, audio, obraz nebo video musí být označeny jako generované AI ve strojově čitelném formátu (metadata C2PA, vodoznaky apod.). Musí to být účinné, interoperabilní a spolehlivé. Výjimka: asistenční úpravy, které podstatně nemění vstup.

Art. 50(4)

Zveřejnění deepfake / AI textu

Obsah generovaný AI zveřejněný pro veřejnou spotřebu musí být viditelně označen. Uživatelé (nasazovatelé) musí zachovat strojově čitelná označení od poskytovatelů a přidat viditelné štítky v místě zveřejnění.

Pro DMS je praktický dopad přímočarý. Pokud má váš systém funkci AI chatu, zobrazte jasný indikátor, že uživatel komunikuje s AI – štítek, ikonu hvězdiček nebo podobný vizuální prvek. Pokud váš systém generuje shrnutí, překlady nebo vysvětlení, označte je jako generované AI v rozhraní a ideálně i v metadatech dokumentu. Nejde o zatěžující požadavky. Většina moderních produktů DMS s funkcemi AI to již dělá nebo to dokáže implementovat během několika hodin.

Rozdíl mezi poskytovatelem a uživatelem (nasazovatelem) je důležitý. Akt o AI ukládá povinnost navrhnout funkce transparentnosti poskytovateli (firmě, která software vyvíjí) a povinnost je nakonfigurovat a zobrazit uživateli (firmě, která software používá). Pokud jste prodejce SaaS DMS, jste poskytovatel – musíte mechanismus zveřejnění zabudovat do produktu. Pokud jste firma používající DMS, jste uživatel – musíte zajistit, aby bylo zveřejnění pro vaše uživatele viditelné.

Článek 4: AI gramotnost je vyžadována již nyní

Toto je povinnost, kterou většina organizací přehlédla. Článek 4 vyžaduje, aby všichni poskytovatelé a uživatelé systémů AI – bez ohledu na úroveň rizika – zajistili „dostatečnou úroveň AI gramotnosti“ u svých zaměstnanců a všech osob, které AI jejich jménem obsluhují. Platí to již od 2. února 2025.

V platnosti již od 2. února 2025

Článek 4 se vztahuje na každou firmu, která používá AI – včetně vašeho systému správy dokumentů. Pokud jste se školením AI gramotnosti ještě nezačali, už máte zpoždění. Není vyžadována žádná certifikace, ale školení musí být zdokumentováno a doložitelné v případě auditu.

Co vlastně „AI gramotnost“ znamená? Pokyny Evropské komise upřesňují, že pouhé odkázání zaměstnanců na uživatelskou příručku systému AI nestačí. Odpovídající program by měl zahrnovat:

  • 1.Co je AI a jak funguje – přiměřeně publiku (vedení, inženýři a koncoví uživatelé potřebují různou hloubku)
  • 2.Schopnosti a omezení konkrétních systémů AI, které vaše organizace nasazuje
  • 3.Rizika včetně zkreslení (bias), chyb, halucinací a dopadů na soukromí
  • 4.Odpovědnost za lidský dohled – co dělat, když AI produkuje neočekávané, nesprávné nebo škodlivé výstupy
  • 5.Relevanci Aktu o AI pro konkrétní roli dané osoby
  • 6.Dokumentaci: písemnou politiku AI gramotnosti s rozsahem, rolemi, tématy, záznamy o účasti na školení a frekvencí revizí

Pro malý tým používající DMS s AI to nevyžaduje formální vzdělávací program. Může to být tak jednoduché jako zdokumentovaná interní schůzka, kde proberete: jaké funkce AI jsou v nástrojích, které používáme, co umí a co ne, a co dělat, když výsledky vypadají špatně. Zapište si schůzku, poznamenejte účastníky a naplánujte si každoroční osvěžení. Pro většinu scénářů s minimálním a omezeným rizikem to stačí.

Digital Omnibus Act: Změní se termíny?

Dne 19. listopadu 2025 navrhla Evropská komise Digital Omnibus Act – balíček legislativního zjednodušení, který mění Akt o AI spolu s dalšími digitálními předpisy (GDPR, Data Act, NIS 2). Mimo jiné navrhuje posunout termín pro vysoce rizikové systémy z Přílohy III z 2. srpna 2026 na 2. prosince 2027.

K dubnu 2026 je Omnibus v jednání v trilogu. Evropský parlament přijal své stanovisko v březnu 2026 poměrem hlasů 569 ku 45. Rada svůj mandát přijala rovněž v březnu. Zákon zatím nebyl schválen. Původní data zůstávají právně závazná.

NENÍ ovlivněno Omnibusem – stále platí 2. srpen 2026

  • ×Povinnosti transparentnosti dle čl. 50 (zveřejnění chatbota, označování obsahu)
  • ×AI gramotnost dle čl. 4 (již v platnosti od února 2025)
  • ×Zakázané praktiky dle čl. 5 (již v platnosti od února 2025)
  • ×Povinnosti pro modely GPAI (v platnosti od srpna 2025)

Může být odloženo, POKUD Omnibus projde

  • Povinnosti pro vysoce rizikové systémy dle Přílohy III (čl. 8–15) – navrhovaný odklad na prosinec 2027
  • Vysoce rizikové systémy zabudované v produktech dle Přílohy I – navrhovaný odklad na srpen 2028

Praktická rada: nepoužívejte Omnibus jako výmluvu k odkladu. I kdyby se termíny pro vysoké riziko posunuly, práce na správě – inventura AI, klasifikace rizik, dokumentace, protokolování, návrh dohledu – je identická. A povinnosti, které jsou pro produkty DMS nejdůležitější (transparentnost a gramotnost), zůstávají nedotčeny. Připravte se nyní a případný odklad se stane časovou rezervou, nikoli ztraceným časem.

Co udělat tento měsíc: praktický kontrolní seznam

Ať už systém správy dokumentů s AI vyvíjíte, prodáváte nebo používáte, zde je to, co byste měli udělat do 2. srpna 2026. Kroky jsou seřazeny podle naléhavosti – začněte odshora.

!

Vyřešte AI gramotnost hned (už teď je pozdě)

Článek 4 platí od února 2025. Uspořádejte interní schůzku o nástrojích AI, které váš tým používá. Zdokumentujte, co jste probrali, kdo se zúčastnil a kdy. Může to být 90minutové setkání, nikoli vícedenní kurz. Naplánujte si každoroční opakování.

1

Udělejte si inventuru funkcí AI

Spište si všechny funkce poháněné AI ve vašem softwaru: OCR, automatická klasifikace, chatbot, shrnutí, překlad, doporučování. U každé si poznamenejte, zda přímo komunikuje s uživateli a zda generuje obsah.

2

Klasifikujte každou funkci podle úrovně rizika

Použijte tabulku v části 3 tohoto průvodce. Přiřaďte každou funkci AI k úrovni rizika. Zdokumentujte své zdůvodnění – to je záznam, který by vyžadoval auditor. Většina funkcí DMS bude mít minimální nebo omezené riziko.

3

Implementujte označování transparentnosti

U všech funkcí s omezeným rizikem (chatbot, generování textu): přidejte viditelné upozornění na AI v místě interakce. U textu generovaného AI: přidejte strojově čitelná metadata označující jej jako syntetický. Otestujte, zda jsou upozornění viditelná při první interakci – ne schovaná v nastavení.

4

Zkontrolujte auditní stopu

I když to pro systémy s minimálním rizikem není povinné, udržování protokolů o výstupech generovaných AI, opravách uživatelů a rozhodnutích systému je dobrou praxí. Pokud váš DMS již má auditní stopu (většina má), ověřte, zda pokrývá i akce AI, nejen přístup k dokumentům.

5

Vše dokumentujte

Vytvořte si jednoduchý záznam o shodě: inventuru AI, klasifikaci rizik, důkaz o školení AI gramotnosti a implementaci transparentnosti. Tento dokument nemusí být rozsáhlý – pro většinu malých a středních firem provozujících systémy s minimálním/omezeným rizikem stačí interní shrnutí o 2–3 stranách.

Realita pro malé a střední podniky: co musíte skutečně udělat

V Aktu o AI neexistuje žádná výjimka podle velikosti. Startup o 3 lidech má u stejného systému AI stejné povinnosti jako korporace z Fortune 500. Zákon reguluje to, co AI dělá, nikoli to, kdo ji provozuje.

Přesto Akt o AI neignoruje realitu malých a středních podniků (MSP). Několik ustanovení jim vychází vstříc – snížené pokuty, zjednodušená dokumentace, prioritní přístup do sandboxů a nižší poplatky za posuzování shody.

Vaše AI funkce OCR, auto-tagging, extrakce metadat, vyhledávání Minimální AI chatbot, generování textu, sumarizace Omezené AI rozhodování o náboru, úvěrový scoring Vysoké Většina DMS funkcí spadá do zelené a modré zóny

Zde je to, co Akt o AI nabízí konkrétně pro malé a střední podniky:

Ustanovení Co to znamená pro MSP
Čl. 99 odst. 6 — Stropy pokut Pro MSP platí nižší z obou alternativ pokut. Zakázaná porušení: strop 35 mil. € (nikoli 7 % obratu). Vysoké riziko: strop 15 mil. € (nikoli 3 %). To znamená, že malá firma nikdy nedostane pokutu v procentech z příjmů, pokud je pevný strop nižší.
Čl. 63 — Zjednodušený QMS Mikropodniky (<10 zaměstnanců, obrat <2 mil. €) mohou plnit části systému řízení kvality zjednodušeným způsobem. Méně papírování, stejné principy.
Čl. 62–63 — Regulační sandboxy Každý členský stát EU musí do srpna 2026 zřídit alespoň jeden regulační sandbox. MSP a startupy v nich mají prioritní přístup se sníženými nebo odpuštěnými poplatky.
Čl. 11 odst. 2 — Zjednodušená dokumentace Komise je zmocněna vytvořit zjednodušený formát technické dokumentace podle Přílohy IV speciálně pro MSP a startupy.

Pro typickou firmu o 5 lidech používající DMS s AI: vaše celkové úsilí o shodu pravděpodobně zahrnuje jedno zdokumentované školení AI gramotnosti, inventuru funkcí AI (jedna strana), klasifikaci rizik (většina funkcí bude minimální riziko) a ověření, že váš dodavatel DMS implementoval označování transparentnosti. Odhadované přímé náklady: nula až několik set eur. Odhadovaný čas: 10–15 pracovních hodin rozložených do několika týdnů. To je upřímná realita pro většinu malých firem používajících AI při správě dokumentů.

Jak Veluvanto pomáhá se shodou s Aktem o AI

Veluvanto bylo od prvního dne navrženo s ohledem na regulační požadavky EU. Zde je to, co platforma již nyní poskytuje pro shodu s Aktem o AI – bez nutnosti další konfigurace:

  • Zveřejnění interakce s AI: každá odpověď generovaná AI v chatu Veluvanto je označena ikonou hvězdiček, která jasně indikuje obsah generovaný AI. Uživatelé vždy vědí, kdy komunikují s AI.
  • Auditní stopa: všechny akce AI – analýza dokumentů, dotazy v chatu, přiřazování štítků, vytváření připomínek – jsou protokolovány s časovým razítkem, ID uživatele a detaily akce. To splňuje osvědčené postupy protokolování pro systémy s omezeným rizikem.
  • Sledování využití AI: záznamy o využití na úrovni uživatele sledují spotřebu kreditů AI, použitý model a typ akce – což poskytuje detailní protokolování podporující požadavky na odpovědnost.
  • Ukládání dat v EU: všechna data jsou uložena a zpracovávána v datových centrech v EU. Žádné flexibilní směrování, žádné zálohy v USA, žádné výjimky. Vaše dokumenty nikdy neopustí EU.
  • Kontrola uživatele nad AI akcemi: uživatelé mohou kdykoli zkontrolovat, upravit a přepsat jakoukoli klasifikaci, štítek nebo metadata vygenerovaná AI. AI pracuje na pozadí, aby vám ušetřila čas, ale vy zůstáváte v kontrole nad svými dokumenty.
  • Žádné trénování na vašich datech: Veluvanto nikdy nepoužívá dokumenty zákazníků k trénování modelů AI. Vaše data jsou zpracovávána výhradně ve váš prospěch.

Tyto funkce nezajišťují shodu automaticky – stále musíte vyřešit školení AI gramotnosti a udržovat vlastní dokumentaci. Znamenají však, že platforma, na kterou spoléháte, je již připravena na nadcházející regulační prostředí.

Zdroje a další četba

Tento průvodce čerpá z oficiálního textu Aktu o AI a autoritativních analýz. Úplné znění nařízení a konkrétní citované články naleznete v níže uvedených zdrojích.

  1. Úplné znění Aktu o AI — Nařízení (EU) 2024/1689 — Úřední věstník Evropské unie (eur-lex.europa.eu)
  2. Článek 50 (Povinnosti transparentnosti pro systémy s omezeným rizikem) — artificialintelligenceact.eu/article/50
  3. Článek 6 a Příloha III (Klasifikace vysokého rizika a výjimky) — artificialintelligenceact.eu/article/6 a artificialintelligenceact.eu/annex/3
  4. Otázky a odpovědi Evropské komise k AI gramotnosti — digital-strategy.ec.europa.eu
  5. Digital Omnibus Act — stanovisko Evropského parlamentu přijaté 26. března 2026 (europarl.europa.eu)
  6. Článek 99 (Sankce a ustanovení pro MSP) — artificialintelligenceact.eu/article/99
  7. Informační list Accountancy Europe o Aktu o AI pro MSP — accountancyeurope.eu

Často kladené otázky

Vztahuje se Akt o AI na moji malou firmu?
Ano. Neexistuje žádná výjimka podle velikosti. Pokud vaše firma používá AI – i prostřednictvím nástrojů SaaS třetích stran, jako je DMS – platí článek 4 (AI gramotnost). Praktický dopad pro většinu malých firem používajících AI s minimálním rizikem je malý: zdokumentované školení a interní inventura AI. Zákon reguluje technologii, nikoli velikost firmy.
Je OCR považováno za AI podle Aktu o AI?
Záleží na implementaci. Tradiční OCR založené na pravidlele (jako základní Tesseract) nemusí splňovat definici systému AI podle Aktu. Moderní OCR využívající strojové učení pro analýzu rozvržení, rozpoznávání rukopisu nebo extrakci textu s ohledem na kontext se však pravděpodobně kvalifikuje. I tak ale OCR spadá pod minimální riziko bez specifických povinností kromě AI gramotnosti.
Musím v DMS označovat shrnutí generovaná AI?
Podle článku 50 odst. 2 ano – syntetický text musí být od 2. srpna 2026 označen jako generovaný AI ve strojově čitelném formátu. Existuje výjimka pro „asistenční úpravy“, které podstatně nemění vstup. Shrnutí, které věrně parafrázuje zdrojový obsah, by se do této výjimky mohlo vejít, ale originální analýza nebo generovaný text nikoli. V případě pochybností jej označte.
Jaký je rozdíl mezi poskytovatelem a uživatelem (nasazovatelem)?
Poskytovatel vyvíjí nebo uvádí systém AI na trh (např. dodavatel DMS jako Veluvanto). Uživatel (nasazovatel) používá systém AI v profesionálním kontextu (např. firma, která si DMS předplácí). Oba mají podle Aktu o AI povinnosti, které se však liší: poskytovatelé musí do produktu zabudovat funkce pro shodu; uživatelé musí produkt používat podle pokynů poskytovatele, zajistit lidský dohled a udržovat protokoly.
Co se stane, když do 2. srpna 2026 neudělám nic?
U AI gramotnosti (článek 4): jste v nesouladu již od února 2025. U transparentnosti (článek 50): po 2. srpnu 2026 může neinformování o interakci s AI nebo neoznačení AI obsahu vést k pokutám až do výše 15 mil. € nebo 3 % globálního obratu (podle toho, co je vyšší; pro MSP platí nižší částka). V praxi se vymáhání pravděpodobně nejprve zaměří na vysoce rizikové a mediálně známé případy – ale dosažení shody je přímočaré a levné, takže není důvod čekat.
Odloží Digital Omnibus Act tyto požadavky?
Omnibus může odložit povinnosti pro vysoce rizikové systémy z Přílohy III (ze srpna 2026 na prosinec 2027), ale NEODLOŽÍ povinnosti transparentnosti podle článku 50, AI gramotnost podle článku 4 ani zakázané praktiky podle článku 5. To jsou povinnosti nejrelevantnější pro systémy správy dokumentů. I kdyby Omnibus prošel, termín 2. srpna 2026 pro transparentnost a únor 2025 pro gramotnost zůstávají beze změny.

Přestaňte dokumenty hledat. Začněte je nacházet.

Zdarma k vyzkoušení. Bez kreditky. Předplatné aktivujete, až budete chtít.

🔒 EU cloud · Bez kreditky · 14denní garance vrácení peněz