Evropský sbor pro ochranu osobních údajů (EDPB) zveřejnil Stanovisko k některým aspektům ochrany osobních údajů při použití AI modelů. Stanovisko objasňuje, kdy lze AI modely považovat jako zpracovávající osobní údaje, poskytuje pokyny k posouzení oprávněného zájmu v souvislosti s vývojem a nasazením AI, a shrnuje dokumentační povinnosti správců.
Lze AI model považovat za anonymní?
Přestože AI model nemusí být navržen k tomu, aby generoval informace o identifikovatelných fyzických osobách, EDPB upozorňuje, že osobní údaje použité k trénování mohou zůstat uchovány v jeho parametrech. To znamená, že AI modely trénované na osobních údajích nelze vždy považovat za anonymní.
Aby byl AI model považován za anonymní, musí být velmi nepravděpodobná možnost získání osobních údajů buď přímo z modelu, nebo z dotazů (promptů) zadaných uživatelem. Posouzení by mělo zohlednit všechny faktory, včetně povahy tréninkových dat, samotného modelu a tréninkového procesu, způsobu nasazení modelu a také nákladů a času potřebného k získání dalších informací.
Jaká opatření EDPB doporučuje během vývoje a implementace AI modelů?
EDPB nastiňuje řadu technických a organizačních opatření, která by měla v několika klíčových oblastech: výběr zdrojů pro trénování modelu a kritéria při selekci data setů, včetně opatření k omezení sběru osobních údajů a vyloučení nevhodných zdrojů; příprava a čištění data setů, v rámci které by měla být v maximální možné míře zajištěna anonymizace či pseudonymizace, a dále opatření na minimalizaci osobních údajů a filtrování data setů před použitím pro trénování; metodologie použitá při trénování modelů; a v neposlední řadě též opatření ve vztahu k výstupům, zahrnují v praxi zejména output filtery, které mají zabránit extrakci osobních údajů v rámci výstupů.
Správci by měli také řádně dokumentovat operace zpracování podle GDPR. Dokumentace by měla zahrnovat především posouzení dopadu na ochranu osobních údajů (DPIA) (nebo vysvětlení, proč nebylo vypracování DPIA nutné), informace o technických a organizačních opatřeních a také dokumentaci prokazující odolnost AI modelu vůči technikám opětovné identifikace.
Správci by měli provádět a dokumentovat audity (interní, či externí) provedené s cílem zhodnotit přijatá opatření k minimalizaci rizik identifikace fyzických osob. Správci by měli rovněž provádět pravidelné testování AI modelu proti různým typům útoků jako je například právě regurgitace tréninkových dat.
Mohou správci spoléhat na oprávněný zájem jako právní základ zpracování osobních údajů? A jak mohou správci prokázat vhodnost oprávněného zájmu jako právního základu ve fázi vývoje a nasazení?
Stanovisko připouští použití oprávněného zájmu jako právního základu pro zpracování osobních údajů pro účely vývoje a nasazení AI modelů.
Posouzení oprávněného zájmu vyžaduje tříkrokový test: identifikaci oprávněných zájmů; posouzení nezbytnosti zpracování; a porovnávání oprávněných zájmů správce oproti zájmům nebo základním právům a svobodám subjektů údajů.
Jako příklad oprávněného zájmu stanovisko uvádí zájem na vývoji služby chatbota pro pomoc uživatelům.
Ve stanovisku EDPB upozorňuje na rozdíl mezi zpracováním dat získaných přímo od subjektů údajů (first-party data) a daty získanými od třetích stran (third-party data). Dále je zdůrazněn význam zásady minimalizace údajů, která však bude muset být hodnocena v každém případě individuálně (zejména s ohledem na opatření popsaná výše).
EDPB rovněž klade důraz na zhodnocení rozumných očekávání subjektů údajů, že bude docházet ke využití jejich údajů pro trénování a vývoj AI modelů. Ačkoli je třeba zohlednit požadavky na transparentnost podle GDPR, pouhé splnění těchto požadavků nestačí k odůvodnění závěru, že subjekty údajů mohou důvodně očekávat určitý typ zpracování. Nebude tedy stačit standardní privacy notice podle GDPR, nýbrž bude třeba přijmout celou řadu dalších opatření, jako jsou například infografiky, emailové a mediální kampaně, videa či odpovědi na často kladené dotazy.
Jaké jsou důsledky nezákonného zpracování dat během vývoje AI modelu?
Stanovisko EDPB zdůrazňuje, že nezákonné zpracování dat během vývoje AI modelu může ovlivnit zákonnost jeho následného použití. Uvádí tři možné scénáře:
- Osobní údaje jsou zachovány v modelu a dále zpracovávány stejným správcem: Dozorové orgány by měly posoudit, zda vývoj zahrnoval samostatné zpracovatelské operace, a zhodnotit dopad absence právního základu pro původní zpracování na další použití.
- Osobní údaje jsou zachovány v modelu a zpracovávány jiným správcem: Dozorové orgány by měly zvážit, zda nový správce provedl odpovídající posouzení, aby zajistil, že model nebyl vyvinut na základě nezákonného zpracování osobních údajů, například pokud bylo zjištěno porušení pravidel.
- Osobní údaje byly nezákonně zpracovány, ale následně anonymizovány: Pokud následná operace nezahrnuje zpracování osobních údajů, GDPR se na ni nevztahuje.
Zdroj: Dentons
Foto: pixabay.com
Související články
- Zastavte se 17. listopadu v chill-out lounge ČAK v atriu Kaňkova paláce – Advokacie
- Tribunál ke spojení Vodafone s Liberty Global/UPC v Německu, ČR či Maďarsku – Judikatura
- Michal Žižlavský: Kdo chce mít v systému slabé insolvenční správce? – Legislativa
- Návrh novely stavebního zákona by měl Senát podle komory inženýrů odmítnout – Svět práva
- Vedení ČAK těší zájem mladých kolegyň a kolegů o zapojení do dění na Komoře – Advokacie
- Vychází předvánoční Bulletin advokacie, poradí vám v potížích i s dárky – Advokacie