Budoucnost je v AI 4 - GDPR aspekty pro standardní provoz AI

Co přináší využívání AI systému uživatelům? Kdo je vlastně uživatel? Jaké povinnosti mu plynou z GDPR?

Budoucnost je v AI 4 - GDPR aspekty pro standardní provoz AI

Začněme odlišením různých režimů poskytování AI systémů koncovým uživatelům, s nimiž se ve standardním provozu nejčastěji budeme setkávat. Poskytovatel může nabízet služby AI systému:

  1. napřímo subjektům (např. na veřejné webové stránce, kde AI bude přístupné návštěvníkům typicky spotřebitelům).

  2. formou B2B služby svým zákazníkům, kteří je dále „distribuují“ svým B2B klientům (např. dopravce, který svým firemním zákazníkům zpřístupní Chat, nebo třeba plánovač rozvozu)

  3. formou B2B služby svým zákazníkům, kteří je dále poskytují svým zaměstnancům (například firma používající kancelářský balík, který na pozadí vytváří reporty o používání, plánuje kalendář, navrhuje aktivity, aj., nebo firma jejíž zaměstnanci využívají AI při podpoře klientů)

Role provozovatele se v každém výše uvedeném scénáři mění. Z pohledu GDPR pak bude zásadní to, kdo bude vystupovat vůči jednotlivým subjektům údajů, jejichž osobní údaje budou v AI nástroji zpracovávané.

Tato osoba bude primárním správcem osobních údajů (koncových uživatelů AI nástroje) a všichni ostatní v dodavatelském řetězci budou obvykle zpracovateli osobních údajů.

Podle GDPR je Správce povinen zajistit soulad s GDPR, což mimo jiné zahrnuje povinnost provést posouzení, zda daná zpracovatelská aktivita vyžaduje provedení DPIA podle článku 35 GDPR nebo ne.

Použití AI nástrojů a DPIA

Posouzení souladu či provádění DPIA týkající se osobních údajů koncových uživatelů bude většinou povinností zákazníka (uživatele), nikoli provozovatele AI systému. Výjimkou bude varianta, kdy provozovatel nabízí AI systém přímo koncovým uživatelům. V tomto případě připadne povinnost provedení DPIA a zajištění souladu provozovateli.

Jelikož většina dnešních AI systémů (které nebudou přímo zakázané) spadá dle AI Actu do kategorie vysoko rizikových, a to právě s ohledem na rizika, které mohou představovat pro soukromí lidí, povinnosti provedení DPIA se uživatel téměř jistě nevyhne.

Pokud Provozovatel AI systému umožní provozování stejného AI systému v kombinaci režimů (1), (2), i (3), tedy (napřímo subjektům, formou B2B služby svým zákazníkům, i formou B2B služby svým zákazníkům, kteří je poskytují svým zaměstnancům), pak se provozovatel nevyhne nutnosti provést posouzení ve vlastní režii v rámci uvádění AI systému na trh. To by bylo pro B2B zákazníky výhodné, protože by se následně mohli ve velké míře provozovatelovou DPIA inspirovat.

Základní metodiku posouzení vlivů popisuje například ÚOOÚ na svých stránkách (Návod k posouzení vlivu na ochranu osobních údajů u návrhů právních předpisů (DPIA)). Pro její provedení je však nutné mít k dispozici velké množství informací, zejména:

  • detailní architekturu technického řešení a jaké osobní údaje odkud kam tečou

  • přehled o tom, které subjekty (osoby) a v jakých rolích a ve kterých zemích se na zpracování podílejí

  • informace o implementovaných technických a organizačních opatřeních jež plynou z povinností dle AI Actu,

  • „určené účely“ a „důvodně předvídatelné nesprávné použití“ systému

  • účel a prostředky zpracování na straně uživatele (například využití AI systému ABC v rámci IT systému pro plánování logistiky rozvodu balíků)

Určení právních titulů AI systému

Pro některé aktivity, jejichž provádění plyne jako povinnost z AI Actu, často nebude právním titulem plnění právní povinnosti, ale spíše plnění smlouvy. Smlouvou zde totiž bude konkrétní smluvní ujednání mezi provozovatelem a uživatelem, resp. všeobecné obchodní podmínky mezi koncovým uživatelem a provozovatelem, které musí reflektovat konkrétní architekturu a nastavení daného AI systému.

V případech, kde zaměstnavatel nabízí nebo požaduje od zaměstnanců využívání AI systému v rámci plnění jejich pracovních povinností a dochází ke zpracování jejich osobních údajů, bude nejčastějším titulem oprávněný zájem. Zaměstnavatel (uživatel v terminologii AI Actu), pak bude povinen provést balanční test a umožnit zaměstnancům opt-out ze zpracování.

Zejména u vysoce rizikových AI pak zjevně problematickým bodem bude vysvětlit, zda neexistuje vůči soukromí méně invazivní varianta pro provedení činnosti. Také nebude snadné tvrdit, že v praxi je řešení obvyklé a považované za bezpečné, existuje-li stanovisko dozorových úřadů o tom, že řešení představuje vysoké riziko. Kolem vestavěné AI v kancelářských balících, již mnoho let probíhá bouřlivá diskuse, přičemž hned v několika zemích (v Německu, Rakousku či Nizozemí) úřady využívání takové AI například zakazují školám nebo úřadům. 

Z poslední doby zmiňme diskuse kolem generativní AI, kdy například v květnu Nizozemský úřad pro ochranu osobních údajů (AP) je znepokojen nakládáním s osobními údaji organizacemi, které používají takzvanou generativní umělou inteligenci (AI), jako je ChatGPT, nebo v půlce června Irský úřad zarazil spuštění Google služby BARD z důvodu obak o soulad s GDPR. Také české ministerstvo vnitra vnímá rizika využívání AI a zřídilo speciální tým pro AI rizika.

Pro uživatele-zaměstnavatele, kteří touží po právní jistotě, lze doporučit, aby (pokud se nerozhodnou AI systémům raději úplně vyhnout) při implementaci AI systémů zajistili, že tyto nebudou osobní údaje zaměstnanců zpracovávat vůbec, nebo pouze skutečně anonymizované.  

Anonymní data a AI

Aktuálně diskutovanou variantou, která ale může být technicky komplikovanější, je včlenění anonymizační vrstvy mezi uživatele a AI systém. Ta zajistí, že AI se nedozví o uživateli nic, co by umožnilo jeho identifikaci. Tento koncept má zřejmě slibnou budoucnost, ale zatím je spíše teoretický.

Další možností je v rámci „dodání na trh“ AI systému u zákazníka tento v souladu s principem privacy by design nastavit tak, aby žádné osobní údaje o uživateli nesbíral, nebo je sbíral až poté, kdy zaměstnanec formou opt-in se sám na základě své svobodné vůle rozhodl daný systém využívat. To ovšem předpokládá, že zaměstnanec má rozumnou alternativní cestu, jak svou práci vykonávat bez předávání osobních údajů do AI systému.

Posuzování zákonnosti zpracování a shody s principy dle článku 5 GDPR

Správce musí respektovat základní zásady zpracování osobních údajů zakotvené v článku 5 GDPR. Jedná se o zásady zákonnosti, korektnosti, transparentnosti, účelového omezení, minimalizace údajů, přesnosti, omezení uložení, integrity a důvěrnosti. 

Účely zpracování a určení role účastníků spolu silně souvisí. Správnému a obhajitelnému a subjektům údajů srozumitelnému určení účelů zpracování a určení rolí účastníků tak je nutné věnovat velkou míru pečlivosti. Na tomto základě pak bude Správce muset obhajovat soulad s principy dle článku 5 GDPR.

Uživatel bude nucen provést toto posouzení v rámci DPIA. Ovšem komplexita tohoto úkolu bude vysoká a nad schopnosti velkého množství správců. 

Lze však předpokládat, že základ posouzení bude proveden provozovatelem již v rámci uvádění AI systému na trh. To je opět důvodem, proč je žádoucí kupovat AI řešení od provozovatele v EU.

 Transparentnost a informační povinnost

Pro správce platí stejné povinnosti transparentnosti zpracování osobních údajů, jako u každého jiného IT systému.

Opět doufejme, že v budoucnosti, až bude platit AI Act, dozorové orgány donutí provozovatele, aby potřebné informace, které uživatelé budou muset sdělovat subjektům údajů, byly již předpřipravené v dokumentaci k AI systému.

Do té doby však informační povinnost a její tvorba padá plně na hlavu správců osobních údajů.

Komplikované to může být zejména tehdy, pokud je AI systém bude zpracovávat i osobní údaje zaměstnanců. Je-li správcem údajů zaměstnavatel, pak smluvní podmínky pro AI systém musí být uzavřeny mezi provozovatelem a zaměstnavatelem. Není možné vyžadovat po zaměstnancích, aby například akceptovali všeobecné smluvní podmínky třetí strany a zavazovali se k dodržování povinností podle práva státu na druhé straně planety jen proto, že tam výrobce AI systému má hlavní stan.

Pokud se k používání AI systému váží nějaké další podmínky, pak zaměstnavatel musí tyto vydat ve vlastní režii jako interní dokumentaci nebo jako součást smluvního vztahu se zaměstnancem.

Z tohoto důvodu je riskantní konfrontovat zaměstnance přímo s portálem Provozovatele a lepší je provést v rámci „customizace“ (tj. uvedení do provozu dle čl. 3 odst. 11 AI Actu) úpravu uživatelského rozhraní zaměstnavatele tak, aby poskytovalo dokumenty správce v podobě, jež je přípustná v zaměstnaneckém vztahu a plní požadavky GDPR.

Rizikem je rovněž ochrana autorských práv zaměstnavatele. Hrozí, že zaměstnanci budou v rámci využívání veřejného AI systému s třetími stranami sdílet důvěrné informace. Zde opět může zafungovat uživatelské rozhraní správce (zaměstnavatele), které obsahuje nástroj pro zajištění, že interní informace nebudou propuštěny mimo prostředí zaměstnavatele. Podobnou cestou je možné také realizovat anonymizaci (či pseudonymizaci) osobních údajů zaměstnanců či jiných uživatelů, kterým Správce AI nástroj poskytuje.

Práva subjektů údajů

Mezi informace, které správce musí subjektům před zahájením zpracování podle GDPR zpřístupnit, patří pochopitelně i informace, jak ve vztahu k AI systému, resp. jeho provozovateli a jak funguje mechanismus pro uplatnění práv subjektů údajů dle článků 15 až 22 GDPR, tedy právo na informace, výmaz, blokování, přenos údajů a další.

Poskytuje-li provozovatel služby využívající AI přímo spotřebitelům, povinnost informovat o zpracování osobních údajů dopadá na něj.

Přenosy osobních údajů mimo EU

V červenci 2023 došlo k přijetí smlouvy mezi USA a EU, zvané DPF (Data Privacy Framework), která umožní snadnější přenosy osobních údajů z EU do USA. Díky této smlouvě může vývozce dat z EU považovat příjemce osobních údajů (např. OpenAI v případě ChatGPT, nebo Google v případě AI BARD) za firmu vyskytující se v zemi, kterou EU považuje z pohledu ochrany osobních údajů za "adekvátní". Podmínkou je, aby příjemce byl certifikován v rámci DPF programu u americké regulátora, jímž je FTC (Federal Trade Commission).

I tento aspekt obsahuje řadu compliance a obchodních rizik:

  1. DPF bude téměř jistě soudně napaden. Ostatně, Max Schrems a jeho Noyb.eu, který mohl za zneplatnění předchůdců DPF, se nijak netají tím, že na žalobě již pracuje. Nelze vyloučit, že Soudní dvůr EU DPF v horizontu několika let opět zruší. Obzvlášť prekérní situace by mohla nastat, pokud by soud DPF "sestřelil" zrovna v čase, kdy by měl vejít v platnost EU AI Act. Kombinace nových povinností plynoucích z AI Actu, společně s nemožností předávat osobní údaje do USA by mohla být pro AI odvětví v Evropské unii zdrcující.

  2. DPF umožní přenos výhradně z EU do USA. Pro zapojení jakéhokoli dalšího příjemce ze země, kterou EU z pohledu ochrany soukromí nepovažuje za adekvátní, je nutné zajistit jiný mechanismus pro předání údajů. Nejčastěji využívanou možností nepochybně budou standardní smluvní doložky, u nichž je ale nezbytné vypracovat TIA, tedy Transfer Impact Assessment, nebo-li posouzení rizik přenosu osobních údajů. V každém případě je tedy nutné zmapovat jaké subjekty a v jakých zemích se budou na zpracování podílet a podle toho se zařídit. Často to bude znamenat nutnost hybridního smluvního řešení, které bude obsahovat jak DPF, tak i SCC a povinnost provedení TIA.

  3. Dnes má již většina nadnárodních společností se sídlem v USA certifikaci na DPF zajištěnu. Proto je možné DPF pro přenosy údajů využít prakticky okamžitě. Samozřejmě existující smluvní dokumenty bude nutné řádně aktualizovat s ohledem na DPF.

Skupina největších provozovatelů AI systémů, která zahrnuje například OpenAI, Microsoft, Meta, Google a další, vydala v červenci 2023 pod patronací Bílého domu osmibodové samoregulační schéma, v němž se zavazují dodržovat určitá pravidla a povinnosti. Tato pravidla zahrnují bezpečnostní testování, sdílení informací s veřejností pro umožnění kontroly na algoritmy, zajištění ochrany před inisidery, označování výstupů z AI, zamezení diskriminace při používání AI a ochranu sdalších polečenských norem.

Podobnost s AI Actem není náhodná a šance že přinejmenším produkty této skupinky firem mohly být s AI Actem kompatibilní od samého začátku platnosti AI Actu, je velká. U těchto dodavatelů je jasně vidět snaha předcházet ve vztahu k budoucímu AI Actu komplikacím, které pro jejich obchodní modely přinesl v roce 2018 GDPR.

Na obzoru je AI Liability Act

Evropský normotvůrce si předsevzal také přijetí směrnice zvané AI Liability Act (tj. zákon o odpovědnosti za provoz AI). Cílem této směrnice je sjednotit vynucování a dohled nad AI z pohledu odpovědnosti, dodat subjektům údajů nástroj, pomocí nějž se domohou svých práv budou-li poškozeni ze nějakým AI systémem (či jeho provozovatelem), dát regulátorům solidní nástroj a také a předejít fragmentaci na národní úrovni.

Proč je AI liability Act důležitý a proč by nestačilo GDPR? Zatímco GDPR je aplikovatelné pouze na případy, kdy AI systém zpracovává osobní údaje, směrnice o odpovědnosti za provoz AI bude platit pro zpracování jakýchkoli dat v kontextu AI. Tedy například i dat anonymizovaných. Směrnice o odpovědnosti v oblasti umělé inteligence by také vytvořila vyvratitelnou „domněnku kauzality“, která by obětem ulehčila důkazní břemeno, pokud jde o zjištění škody způsobené AI systémem. Dále udělí vnitrostátním soudům pravomoc nařídit zpřístupnění důkazů o vysoce rizikových systémech umělé inteligence, u nichž je podezření, že způsobily škodu. Více k AILA naleznete ve vysvětlení záměrů kolem AI liability Actu od EK (pdf).

Shrnutí problému pro uživatele AI systému

Navzdory tomu, že některé pojmy v AI Actu se zdají být podobně pojmům, definicim a procesům v GDPR, bude uvedení AI systému do souladu s GDPR právním minovým polem.

Správná implementace bude vyžadovat detailní znalost architektury konkrétního řešení, GDPR i judikatury v obdobných případech a mělo by tak být v každém případě svěřeno do rukou odborníka.

I když AI Act slibuje, že mnohé otázky budou splněna v rámci uvádění AI systémů na trh, platnost AI Actu nelze očekávat dříve než v půli roku 2026. To je ale z praktického úhlu pohledu pozdě, protože AI systémy prožívají právě nyní obrovský boom. Již nyní dodavatelé tradičních IT systémů horečně vymýšlejí, kam by nějakou AI komponentu vložili, aby mohli na produkt dát nálepku „AI“.

Zavádíte-li AI do firmy, nebo nabízíte-li AI systém, čekání na AI Act nepomůže. Povinnost uvedení AI nástroje a jeho využívání do souladu s GDPR tu je již dnes. Causy například v Irsku, či Nizozemí naznačují, že dozorové úřady nebudou nečině přihlížet a hrozí pokutami. 

Pokud silný tlak zákazníků nedonutí provozovatele AI systémů k dobrovolné aktivitě tak, aby analýzy a dokumentaci nutnou k zajištění souladu s GDPR dodali již dnes, pak pionýrům na poli korporátního využívání AI nezbyde, než se obrátit k tradičním nástrojům pro implementaci GDPR. S ohledem na rizika, která AI nástroje přináší, a na výši pokut, která hrozí, však nelze doporučit vyrábění dalších papírových tygrů, ale je nutné GDPR ve vztahu k AI začít brát skutečně seriózně.

Aktuální změny v AI Actu, včetně těch, které prodělal v rámci schvalování v Evropském Parlamentu dne 14.6.2023 naleznete zde: Texts adopted - Artificial Intelligence Act - Wednesday, 14 June 2023 (europa.eu)

V dalším díle seriálu se podíváme na povinnosti uživatelů AI systémů (tedy zákazníků)

Loading...