Facebook a Instagram chtějí označovat obrázky generované AI. Podvodná videa ale nezastaví

před 5 měsíce 92

Meta ve spolupráci se společnostmi Google, OpenAI, Microsoft, Adobe, Midjourney či Shutterstock připravuje nástroj, který rozpozná obrázky vytvořené generativní umělou inteligencí. Právě tyto firmy jsou součástí uskupení C2PA, které vytvořilo standardy pro označování obrázků vytvořených umělou inteligencí.

MOHLO BY VÁS ZAJÍMAT: Duolingo propustilo překladatele a „najalo“ umělou inteligenci. Sníží to kvalitu výuky?

AI nástroje nově do obrázku vloží neviditelný „vodoznak“, jenž bude součástí jeho metadat. Algoritmy sociálních sítí Facebook, Instagram nebo Threads tak při nahrávání zjistí, že autorem fotografie je stroj, a tuto informaci doplní do příspěvku.

„Tato práce je obzvláště důležitá, protože je pravděpodobné, že v nadcházejících letech bude tento prostor stále více nepřátelský,“ uvedl Nick Clegg v příspěvku na blogu, ve kterém Meta informovala o svém přístupu k obsahu tvořeném umělou inteligencí.

Má to ale háček

Spolupráce Mety a dalších technologických firem ale nepřinutí tvůrce ostatních nástrojů, aby podobné značky vkládali i do svých generátorů obrázků. Také nezabrání snahám obcházet tuto ochranu.

Generativní umělá inteligence je každým dnem sofistikovanější a už dávno neplatí poučky o počítání prstů. Nástroje už nemají problémy vytvořit člověka, který má pět prstů na ruce. Rozpoznat AI fotografii od té skutečné bude stále těžší.

Podle slov Nicka Clegga si toto riziko uvědomuje i samotný provozovatel sociálních sítí.

„Lidé a organizace, kteří budou chtít aktivně klamat pomocí obsahu generovaného umělou inteligencí, budou hledat způsoby, jak obejít ochranná opatření, která jsou zavedena za účelem jejich odhalení. Napříč naším odvětvím a obecněji společností budeme muset neustále hledat způsoby, jak zůstat o krok napřed,“ napsal prezident pro globální záležitosti ve společnosti Meta.

Fotografie a obrázky ale nejsou jediný problém. Mnohem větší riziko zneužití přináší video a audio obsah. Podvržené video, tzv. deepfake, řešil například nedávno ministr vnitra Vít Rakušan.

Na tento typ obsahu je ale Meta zatím krátká. Nástroje generující videa zatím žádné značky do metadat nevkládají. Proto Meta bude po uživatelích vyžadovat, aby sami označili, jestli je video nebo zvuk vygenerovaný umělou inteligencí, či nikoliv. Pokud to neudělají, hrozí jim postih.

V případě dezinformačních kampaní se však nedá předpokládat, že by tvůrci něco takového dělali. Hrozba postihu je v tomto ohledu nezastaví.

Technologický gigant se tak chce spoléhat na pomoc uživatelů sociálních sítí v označování takového obsahu. Je nutné podotknout, že už nyní lze na Facebooku nebo Instagramu nahlásit falešné video. Správcům však trvá velmi dlouhou dobu, než daný obsah smažou nebo zablokují. Často se později takové video objeví na sociální síti znovu, pouze ho zveřejní jiný profil nebo stránka.

Meta momentálně pracuje i na rozvoji svého jazykového modelu Llama-2, se kterým plánuje rychleji a účinněji zakročit proti škodlivému obsahu. „Mohl by být také užitečný při prosazování našich zásad ve chvílích zvýšeného rizika, jako jsou například volby,“ prohlásil Clegg.

Americká CNN rovněž upozornila, že mezi zákonodárci a vedoucími pracovníky technologických firem v USA panuje obava, že umělá inteligence může přispět k šíření nepravdivých informací před volbami prezidenta Spojených států, jež jsou v plánu letos na podzim.

MOHLO BY VÁS ZAJÍMAT: Google přišel s novou umělou inteligencí

Přečtěte celý článek