Co bude navrhovaný zákon EU o regulaci umělé inteligence znamenat pro spotřebitele?

před 1 měsíc 48

15. 3. 2024

čas čtení 10 minut


 
Jak návrh zákona definuje umělou inteligenci, jak bude chránit spotřebitele před zneužitím a co si o něm myslí velké technologické společnosti?

Evropský parlament ve středu schválil návrh zákona EU o umělé inteligenci, který je milníkem v regulaci této technologie. Hlasování je důležitým krokem k zavedení legislativy, která nyní vyžaduje formální souhlas ministrů členských států EU.

Spotřebitelé sice nezaznamenají okamžitý rozdíl vzhledem k tomu, že zákon bude zaváděn po dobu tří let, ale odpoví na některé obavy týkající se této technologie.

 
"Uživatelé budou moci věřit, že nástroje umělé inteligence, k nimž mají přístup, byly pečlivě prověřeny a jejich používání je bezpečné," uvedl Guillaume Couneson, partner advokátní kanceláře Linklaters. "Je to podobné, jako když uživatelé bankovních aplikací mohou věřit, že banka přijala přísná bezpečnostní opatření, která jim umožní aplikace bezpečně používat."

Návrh zákona má význam i mimo EU, protože Brusel je vlivným technologickým regulátorem, jak ukazuje dopad GDPR na správu osobních údajů lidí. Zákon o umělé inteligenci by mohl způsobit totéž.

"Mnoho dalších zemí bude sledovat, co se po přijetí zákona o umělé inteligenci stane v EU. Přístup EU bude pravděpodobně kopírován pouze tehdy, pokud se ukáže, že funguje," dodal Couneson.

Jak návrh zákona definuje umělou inteligenci?

Základní definice umělé inteligence je počítačový systém, který provádí úkoly, jež byste běžně spojovali s lidskou úrovní inteligence, jako je napsání eseje nebo nakreslení obrázku.

Samotný zákon to bere podrobněji a popisuje technologii AI, kterou reguluje, jako "systém založený na stroji, který je navržen tak, aby pracoval s různou úrovní autonomie", což samozřejmě zahrnuje nástroje, jako je ChatGPT.

Tento systém může vykazovat "adaptabilitu po nasazení" - tj. učí se za provozu - a ze vstupů, které obdrží, vyvozuje, "jak generovat výstupy, jako jsou předpovědi, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí". Tato definice zahrnuje chatboty, ale také nástroje umělé inteligence, které například prosívají žádosti o zaměstnání.

Jak je podrobně uvedeno níže, právní předpis zakazuje systémy, které představují "nepřijatelné riziko", ale vyjímá nástroje AI určené pro vojenské, obranné nebo národněbezpečnostní účely, což jsou otázky, které znepokojují mnoho zastánců technické bezpečnosti. Nevztahuje se ani na systémy určené pro použití ve vědeckém výzkumu a inovacích.

"Obáváme se, že výjimky pro národní bezpečnost v zákoně o umělé inteligenci poskytují členským státům carte blanche k obcházení zásadních předpisů o umělé inteligenci a vytvářejí vysoké riziko zneužití," uvedl Kilian Vieth-Ditlmann, zástupce vedoucího oddělení pro politiku německé neziskové organizace Algorithmwatch, která vede kampaně za odpovědné využívání umělé inteligence.

Jak návrh zákona řeší rizika, která AI představuje?

Některé systémy budou zakázány. Patří mezi ně systémy, které se snaží manipulovat s lidmi, aby jim škodily; systémy "sociálního skórování", které klasifikují lidi na základě sociálního chování nebo osobnosti, jako například v čínském městě Rongcheng, kde město hodnotilo aspekty chování obyvatel; pokusy o prediktivní policejní dohled ve stylu Minority Report; sledování emocí lidí v práci nebo ve školách; systémy "biometrické kategorizace", které třídí lidi na základě jejich biometrických údajů (skenování sítnice, rozpoznávání obličeje, otisky prstů), aby bylo možné usuzovat například na rasu, sexuální orientaci, politické názory nebo náboženské přesvědčení; a vytváření databází rozpoznávání obličejů pomocí snímků obličejů z internetu nebo kamerových systémů.

Výjimky pro orgány činné v trestním řízení

Rozpoznávání obličeje bylo v právních předpisech sporným faktorem. Používání biometrických identifikačních systémů v reálném čase - což zahrnuje technologii rozpoznávání obličejů v živém davu - je zakázáno, ale za určitých okolností je povoleno pro orgány činné v trestním řízení. Orgány činné v trestním řízení mohou takovou technologii použít k nalezení pohřešované osoby nebo k zabránění teroristickému útoku, budou však potřebovat souhlas úřadů - ačkoli za výjimečných okolností ji lze nasadit i bez předchozího souhlasu.

A co systémy, které jsou rizikové, ale nejsou zakázané?

Zákon má zvláštní kategorii pro "vysoce rizikové" systémy, které budou legální, ale přísně sledované. Patří sem systémy používané v kritické infrastruktuře, jako je voda, plyn a elektřina, nebo systémy nasazené v oblastech, jako je vzdělávání, zaměstnanost, zdravotnictví a bankovnictví. Zahrnuty budou také některé systémy vymáhání práva, justice a hraniční kontroly. Za vysoce rizikový bude považován například systém používaný při rozhodování o přijetí do vzdělávací instituce nebo o získání zaměstnání.

Zákon vyžaduje, aby tyto nástroje byly přesné, podléhaly posouzení rizik, měly lidský dohled a jejich používání bylo rovněž zaznamenáno. Občané EU mohou rovněž požádat o vysvětlení rozhodnutí těchto systémů umělé inteligence, která se jich dotkla.

A co generativní umělá inteligence?

Na generativní umělou inteligenci - termín pro systémy, které na základě jednoduchých podnětů vytvářejí věrohodný text, obraz, video a zvuk - se vztahují ustanovení pro to, co zákon nazývá "systémy umělé inteligence pro obecné účely".

Bude se jednat o dvoustupňový přístup. V rámci první úrovně budou muset všichni tvůrci modelů dodržovat autorské právo EU a poskytovat podrobné shrnutí obsahu použitého k tréninku modelu. Není jasné, jak budou moci vyhovět již vyškolené modely, a některé jsou již nyní pod právním tlakem. New York Times žaluje OpenAI a Getty Images žaluje StabilityAI kvůli údajnému porušení autorských práv. Modely s otevřeným zdrojovým kódem, které jsou volně dostupné veřejnosti, budou na rozdíl od "uzavřených" modelů, jako je GPT-4 společnosti ChatGPT, z požadavku na autorská práva vyňaty.

Přísnější úroveň je vyhrazena pro modely, které představují "systémové riziko" - na základě posouzení jejich "inteligence", která se více podobá lidské - a očekává se, že bude zahrnovat chatboty a generátory obrázků. Opatření pro tuto úroveň zahrnují hlášení závažných incidentů způsobených modely, jako je smrt nebo porušení základních práv, a provádění "testování protistrany", kdy se odborníci pokoušejí obejít ochranná opatření modelu.

Co to znamená pro deepfakes?

Lidé, společnosti nebo veřejné orgány, které vydávají deepfakes, musí zveřejnit, zda byl obsah uměle vytvořen nebo zmanipulován. Pokud se tak děje za účelem "zjevně" uměleckého, tvůrčího nebo satirického díla, je třeba jej stále označit, ale "vhodným způsobem, který nebrání zobrazení nebo užívání díla".

Text vytvořený chatboty, který informuje veřejnost "o věcech veřejného zájmu", je třeba označit jako vytvořený umělou inteligencí, ale ne v případě, že prošel procesem lidského posouzení nebo redakční kontroly - což vylučuje obsah, který měl lidský dohled. Vývojáři systémů umělé inteligence musí také zajistit, aby jejich výstupy bylo možné rozpoznat jako vytvořené umělou inteligencí, a to pomocí vodoznaku nebo jiného označení materiálu.

Co si myslí společnosti zabývající se umělou inteligencí a technologiemi?

Návrh zákona se setkal se smíšenými reakcemi. Největší technologické společnosti legislativu v zásadě veřejně podporují, zatímco ke konkrétním ustanovením se staví obezřetně. Společnost Amazon uvedla, že je odhodlána spolupracovat s EU "na podpoře bezpečného, zabezpečeného a odpovědného rozvoje technologií umělé inteligence", ale Meta Marka Zuckerberga varovala před přílišnou regulací. "Je velmi důležité, abychom neztráceli ze zřetele obrovský potenciál AI pro podporu evropských inovací a umožnění hospodářské soutěže, a otevřenost je zde klíčová," uvedl šéf společnosti pro záležitosti EU.

V soukromí byly reakce kritičtější. Jeden z vedoucích pracovníků americké společnosti upozornil, že EU stanovila limit pro výpočetní výkon používaný k trénování modelů AI, který je mnohem nižší než podobné návrhy v USA. Modely vycvičené s větším výkonem než 10 na mocninu 25 "flopů", což je měřítko výpočetního výkonu, budou postiženy zatěžujícími požadavky na prokázání, že nevytvářejí systémová rizika. To by mohlo přimět evropské společnosti, aby jednoduše zvedly sázky a přesunuly se na západ, aby se vyhnuly omezením EU.

Jaké jsou tresty podle zákona?

Pokuty se budou pohybovat v rozmezí od 7,5 milionu eur nebo 1,5 % celkového celosvětového obratu společnosti - podle toho, která částka je vyšší - za poskytnutí nesprávných informací regulačním orgánům, přes 15 milionů eur nebo 3 % celosvětového obratu za porušení některých ustanovení zákona, jako je povinnost transparentnosti, až po 35 milionů eur nebo 7 % obratu za nasazení nebo vývoj zakázaných nástrojů umělé inteligence. Pro menší společnosti a začínající podniky budou stanoveny přiměřenější pokuty.

Povinnosti vstoupí v platnost po 12 měsících, takže někdy v příštím roce, jakmile zákon vstoupí v platnost, vstoupí zákaz určitých kategorií v platnost po šesti měsících. Poskytovatelé a nasaditelé vysoce rizikových systémů mají na splnění požadavků tři roky. Vznikne také nový Evropský úřad pro umělou inteligenci, který bude stanovovat standardy a bude hlavním orgánem dohledu nad modely GPAI.

333

Přečtěte celý článek