Sama jsem naletěla, říká žena, která chce „očkovat“ proti dezinformacím

4 měsíce starý 24

Věděla, které manipulace o očkování proti koronaviru by mohly kolovat po síti. Pokusila se proto o jiné očkování – mentální.

Metodou prebunkingu neboli svým způsobem vyvracení předem, vytvořila mentální obranu, jež lidem pomáhá poznat manipulaci a narativy, které dezinformátoři používají.

Seznam Zprávy přinášejí rozhovor s Beth Goldbergovou, výzkumnicí Google think tanku zaměřeného na dezinformace a extremismus.

Uhádla, který titulek je vygenerovaný umělou inteligencí? A na kterou lež se sama nechala nachytat?

Mohla byste nám popsat svoji studii Testing the Efficacy of Attitudinal Inoculation Videos to Enhance COVID-19 Vaccine Acceptance: Quasi-Experimental Intervention Trial?

Ve zkratce: Spolupracovali jsme s Harvardovou a Americkou univerzitou, odborníky na veřejné zdraví a odborníky na komunikaci, abychom dali dohromady tři krátká videa. Mají 30 sekund a jejich cílem bylo pomoci lidem, aby byli schopni rozpoznat a vyvrátit narativ, že vakcíny způsobují poškození zdraví.

Víme, že každá kampaň proti očkování se vždy setkala s tvrzením, že „to mi ublíží“, „to bude nebezpečné pro mé děti“, „to mě možná zabije nebo budu nemocný“. A tak jsme předpovídali, že se to stane. A ono se to samozřejmě stalo. Určitě jste v Česku také zaznamenali tvrzení, která by zapadala do tohoto narativu.

Proto jsme udělali takzvaná prebunkingová videa. Nejprve jsme je otestovali v laboratorních podmínkách, kdy jsme zaplatili více než tisícovce Američanů, aby se na videa podívali. Pak jsme jim ukázali příklad dezinformace a zjišťovali, zda budou sdílet tu dezinformaci, která obsahovala zmíněný narativ. Ptali jsme se jich, jestli důvěřují zdroji, a také na to, jestli dokážou identifikovat narativ v těchto videích.

Debunking a prebunking

Prebunking je způsob preventivního boje s dezinformacemi. Lidem ukazuje často používané narativy a příklady manipulačních technik a témat. Takto poučení jedinci pak zpravidla lépe rozpoznávají dezinformace v případě, že se s nimi následně setkají. Naopak debunking spočívá v pečlivém ověření sdělení, které se již šíří.

U lidí, kteří sledovali naše krátké 30sekundové video, bylo viditelné výrazné zlepšení ve všech ohledech. Byla menší pravděpodobnost, že je budou sdílet, méně věřili dezinformacím a lépe identifikovali narativ o tom, že vakcíny způsobují zdravotní obtíže. Takže to bylo opravdu účinné. Opravdu zajímavá část studie spočívala v tom, že jsme vybrali víc lidí, kteří nebyli očkováni, a pak jsme se jich na samém konci zeptali, jaká je pravděpodobnost, že se nechají očkovat. Skóre se zvýšilo u těch, kteří viděli naše video, ve srovnání s lidmi, kteří viděli kontrolní video.

Víme, jestli to dodrželi? Sledovali jsme je a zjišťovali, zda se skutečně nechali očkovat? Samozřejmě, že ne, to není etické. Myslím ale, že je to skvělý potenciální výsledek, když i pouze 30sekundové video by mohlo mít pozitivní dopad na chování. Právě teď je to video zveřejněné na YouTube a chystáme se ho šířeji sdílet.

Foto: Michal Turek, Seznam Zprávy

Říkala jsem si „Wow, no vida, také věřím dezinformacím“. Protože když něco potvrzovalo moje vlastní předsudky, uvěřila jsem tomu.

Mluvila jste o prebunkingu. Plánujete to jako ověřování faktů v reálném čase?

Tak trochu ano. Snažíme se pomoci jednotlivci lépe odolávat dezinformacím. Nejde ani tak o rozlišování pravdy od lži, ale spíše o schopnost odhalit, kdy mluvčí používá manipulaci nebo dezinformační narativ.

Vytvoříte si tak něco jako mentální protilátky, mentální obranu. Používáme k tomu přirovnání z medicíny. Stejně jako vakcína poskytuje vašemu tělu obranu, i proti dezinformacím se můžete naočkovat. Nejde o to, že byste pak hned poznali falešnou zprávu podle titulku. Prebunking vás vede k tomu, že vám proběhne hlavou: „Vidím, že tento titulek používá opravdu emotivní jazyk. Snaží se ve mně vyvolat pocit hněvu. To je podezřelé. Asi bych tomu neměl věřit.“ Snažíme se naučit člověka pracovat s informacemi.

Myslíte si, že lidé budou mít mentální kapacitu takto přemýšlet u každé zprávy, kterou si přečtou?

Když děláme testy v laboratoři, vidíme poměrně silné výsledky napříč všemi skupinami. Jeden z důvodů, proč se mi prebunking tak líbí, je, že jsme ho velmi důkladně testovali. Zjistili jsme, že napříč různými věkovými skupinami, napříč různými úrovněmi vzdělání, dokonce napříč politickým spektrem, funguje.

Je to opravdu užitečná technika. Udělali jsme několik malých experimentů a fungovalo to v kontrolovaných podmínkách. Jak ale víte, lidé jsou na internetu roztěkaní a také jsou velmi ovlivněni svým prostředím nebo přáteli a rodinou. Snaží se být součástí svého názorového kmene. Budou tedy v reálném světě přemýšlet stejně kriticky jako v rámci laboratorního experimentu? Tím si nejsme jisti. Není to všelék. Prebunking bude někdy fungovat a jindy zase ne.

Vzpomenete si na nějaký příklad dezinformace nebo falešné zprávy, na který jste se osobně nechala nachytat? Čím byla přesvědčivá?

Zajímavá otázka. Napadá mne, že jsem dlouho věřila tvrzení, že Donald Trump spolupracoval s Ruskem. Proběhla svého času spousta rozhovorů a byly plné různých tvrzení o tom, že „tenhle člověk z Trumpovy administrativy mluvil s tímhle člověkem v Rusku“, pamatujete?

A pak se udělalo velké vyšetřování a vyšla velmi dlouhá zpráva, která v podstatě říká, že „neexistují žádné důkazy o tajné dohodě“. Přiznám se, že jsem fakt měla problém tomu uvěřit. Šla jsem do sebe. Říkala jsem si „Wow, no vida, také věřím dezinformacím“. Protože když něco potvrzovalo moje vlastní předsudky, uvěřila jsem tomu. Myslím, že jsem byla oběť velmi častého důvodu, proč dezinformace fungují: Když rezonují s naším vlastním politickým přesvědčením a s našimi předsudky.

Jak se tomu bránit? Měli by lidé více zpochybňovat a ověřovat to, čemu mají tendenci věřit?

Ano, přesně tak.

Dezinformace někdy využívá částečného upravení pravdy, aby získala na důvěryhodnosti. Jak si s tím poradí člověk, který je takto „očkován“?

Na prebunkování je dobré i špatné to, že nezabíhá do detailů. Nemůžete přesně předvídat, jaká bude situace. Následný debunking, který přichází až poté, se zabývá konkrétními detaily, které může ověřovat. Prebunking ale říká: „Můžeme předvídat, že se setkáte s dezinformacemi o válce. Asi uvidíte narativ, že Ukrajinci dělají to či ono. Až to uvidíte, budete vědět, že je to podezřelé, a to z tohoto důvodu.“

Na druhé straně můžete říci: „Možná uvidíte informaci, že Rusko dělá Y.“ A skutečně byste mohli lidem pomoci předvídat, na co za týden nebo za měsíc na internetu narazí. Můžete předem předvídat: „Uslyšíte, že vám Ukrajinci berou práci. Uslyšíte, že Ukrajinci vyhrávají válku tímto způsobem.“ Je vhodné zůstat na té vyšší úrovni narativu.

Když známe způsoby manipulátorů, můžeme se bránit v předstihu

Jak to funguje, když se objeví nějaká převratná zpráva, kterou nebylo možné předvídat?Například v Česku se v roce 2020 objevilo tvrzení, že lidé budou potřebovat covid pasy na cestování. Bylo to označeno jako dezinformace, ale o rok později se to vlastně stalo. Je možné tyto scénáře předvídat?

Je vhodné mluvit o tom, jak je obsah podáván. To lze rámcově předvídat. Nebudu přesně vědět, co se bude dít kolem covid certifikátů. Ale šlo předvídat, že uvidíme titulky, které budou vyvolávat strach z toho, že nás vláda šmíruje.

Bude transparentní, jak prebunking funguje, aby každý mohl proces pochopit?

Velmi mi záleží na transparentnosti a jedním z důvodů, proč mě práce ve společnosti Jigsaw tak baví, je to, že vše, co děláme, je open source a výzkum, který provádíme, zveřejňujeme. Měli jsme několik článků na našem Jigsaw médiu a několik akademických prací, které vysvětlují, jak to funguje.

Když děláme další kampaně, řekněme, kdybychom dělali kampaně v České republice, budeme je mít v češtině. Nyní je to všechno v angličtině, ale určitě chceme být transparentní v tom, jak to funguje. Protože to není tak, že bychom se snažili někoho podvést nebo manipulovat, je to všechno velmi přímočaré. Takže ano, budeme to dělat, budeme v tom pokračovat.

Nebojíte se, že se vám to může vymstít? Že se „zlí hoši“ mohou naučit způsob, jak prebunking obejít, protože budou znát jeho postupy?

To si nemyslím. Vždycky existuje prvek hry kočky s myší, kdy oni se vyvíjí, my se vyvíjíme, ale myslím si, že v tomto případě se snažíme prebunkovat věci, které jsou nadčasové. Když vám vysvětlím jeden narativ, který Rusko používá, možná začnou používat trochu jiný. Takže je to možné, může tam být trochu hra kočky s myší. Ale zejména pokud děláme prebunking na technické úrovni a já vám řeknu, co je princip obětního beránka a proč je obětní beránek špatný, Rusko zítra s touto technikou nepřestane.

Budou dál ze všeho obviňovat Ukrajinu. Takže si myslím, že existují části prebunkingu, které budou fungovat i nadále bez ohledu na to, jak se budou vyvíjet „ti zlí“. A měla bych dodat, že zlí hoši také používají prebunking. Je to jen komunikační technika, která se snaží izolovat mozky lidí od druhé strany. A tak se velmi často setkáváte s tím, že zejména extremistická hnutí nebo diktátoři říkají svým lidem: „Uslyšíte o svobodě a demokracii, budou se vás snažit přesvědčit, že jejich způsob života je lepší, tady je důvod, proč není.“ To je prebunkingová zpráva. Oni vlastně už tu samou techniku používají.

Řešení je pomoci lidem, aby měli schopnost kritického myšlení. Aby dokázali filtrovat informace a pak jim pomáhat pomocí těchto nástrojů, jako je prebunking.

Pokud jde o dezinformace, lidé často používají tento termín k označení čehokoli, s čím nesouhlasí. Existuje nějaká užitečná definice, která by našim čtenářům pomohla lépe ji pochopit?

Existuje mnoho různých konkurenčních definic dezinformací. Já bych řekla, že přesně definovat je možná méně důležité. Hlavní je technika té manipulace. To, zda je skutečnost pravdivá, nebo nepravdivá, je pomalu méně důležité než to, jaký je motiv člověka, kdo vám tuto skutečnost říká.

Jestli se snaží změnit váš názor, jestli se vás snaží ovlivnit. Může tam být zárodek pravdy nebo samotný fakt může být pravdivý, ale oni to říkají způsobem, který je opravdu emotivní. Říkají to způsobem, ze kterého je zjevné, že se vás snaží manipulovat a oklamat.

Chytří lidé hůř mění názor. I když není založený na pravdě

Máte důkazy o tom, že někteří lidé jsou náchylnější věřit dezinformacím?

Ano, některé věci jsou přímo hnacími motory, které způsobují, že lidé podléhají dezinformacím, a jiné věci s dezinformacemi prostě korelují. Například to, že nemáte sociální komunitu. Takový člověk pak hledá sounáležitost a někdy ji najde v nějakém hnutí. Necítíte se součástí politiky. A tak jí nedůvěřujete. Souvisí s tím nedůvěra k institucím. Nedůvěra k médiím a nedůvěra k lékařům nebo odborníkům nebo komukoli jinému. To všechno může vést k tomu, že jste náchylnější věřit dezinformacím.

A pak vidíme další věci, které spolu prostě souvisejí. Pokud máte nízké schopnosti kritického myšlení, je pravděpodobnější, že budete věřit konspiračním teoriím. Je to příčina? Nejsme si jisti příčinou a následkem. Je to ale ten moment, kdy se potvrzuje: „Dobře, takže vzdělání může pomoci. Pokud vám poskytneme dovednosti v oblasti mediální nebo informační gramotnosti, vaše kritické uvažování se může zvýšit a je méně pravděpodobné, že těmto informacím uvěříte.“

Existuje nějaký důkaz, který by naznačoval, že chytří lidé méně často mění své názory právě proto, že vědí, že jsou chytří? Dokonce i když čelí faktům, která dokazují, že se mýlí?

Ano! Proběhl dokonce výzkum na toto téma. Už jsem zapomněla, jestli šlo o úroveň vzdělání, nebo počet titulů, které mají, nebo něco takového, ale v podstatě šlo o to, že čím jsou inteligenčně elitnější, tím těžší je změnit jejich názor. Také z výzkumu vyplývalo, že častěji věřili nepravdivým titulkům, které by odpovídaly jejich předsudkům. Bylo méně pravděpodobné, že identifikují, že jsou nepravdivé. Ano, je těžší je to naučit.

Víme, že s rozvojem internetu lidé skutečně přicházejí do styku s více úhly perspektivami. Takže určitě máme bohatší druh informačního ekosystému. Máme přístup k více informacím.

S pomocí umělé inteligence budou lidé schopni vytvářet dezinformace šité na míru jejich potřebám. Něco jako dezinformace na objednávku, ale v ohromném množství. Existuje způsob, jak to zastavit, zpomalit?

Myslím, že je to jako vzít problém, který už máme a zesílit ho. Rozhodně GPT-3 (nový druh umělé inteligence, pozn. red.) a některé další technologie jsou velmi děsivé, s tím souhlasím. Myslím, že řešení a zmírnění jsou stejná. Je to pomoc lidem, aby měli schopnost kritického myšlení, aby dokázali filtrovat informace, a pak jim pomáhat pomocí těchto nástrojů, jako je prebunking. Aby byli odolnější vůči manipulaci ve všech jejích podobách.

Už ve škole by se mohli lidé učit o těchto nových schopnostech umělé inteligence. A pak by bylo dobré zajistit vzdělávání pro lidi, kteří už ve škole nejsou. Pro starší lidi. A v tomto vzdělávání musíme najít opravdu jemnou rovnováhu. Protože nechceme, aby lidé byli tak skeptičtí, že nebudou ničemu věřit. Takže je třeba, aby byli dostatečně skeptičtí, aby uměli kriticky myslet, ale aby se nestali úplně apatickými.

Netlačit je do bodu, kdy se rozhodnou: „Nebudu ničemu věřit, protože jsem unavený?“

Ano, takoví lidé určitě existují. Prostě se stali tak skeptickými ke všemu, že se už nezabývají zprávami. Prostě poslouchají své přátele na TikToku nebo kdekoliv jinde. Ani to ale není dobré řešení, proto se tomu chceme vyhnout. Chceme najít správnou rovnováhu, jako „tady jsou dovednosti, které potřebujete, nyní jste schopni tak nějak prosít všechny informace a rozumíte novým způsobům manipulace“.

Bylo by užitečné kategorizovat dezinformace, abychom pochopili způsob jejich vytváření a sdílení?

Existuje několik způsobů, jak je kategorizovat. Můžete je kategorizovat podle motivu dezinformace. Vytvářejí je za účelem zisku? Vytvářejí je z geopolitických důvodů? Vytvářejí je jen proto, aby byly vtipné, pro satiru, pro memy? Aby přiměli lidi reagovat, aby je provokovali, aby byli něco jako trollové?

A myslím, že to jsou užitečné kategorizace, když přemýšlíme o prebunkování. Protože chcete lidem pomoci identifikovat motiv. Mohli byste je také zřejmě kategorizovat podle formy nebo typu obsahu. Ale myslím, že motiv je pro mě to hlavní. Existují samozřejmě různé typy zmanipulovaných médií versus třeba samotný obsah, který je nepravdivý. Také zvažuji, jestli je to fakticky nepřesné, nebo je to opět neformální klam, kdy vás to přesvědčuje, abyste něco udělali, a manipuluje vás to, ale fakta jsou pravdivá.

Internet pomohl. Ale také uškodil

Udělali jsme malý experiment: Přečtu vám tři titulky v angličtině. Týkají se českých politiků. Dva jsou skutečné, jeden je vymyšlený umělou inteligencí (GPT-3). Uhodnete, který z nich byl vymyšlený?

„Starosta města přistižen při řízení pod vlivem alkoholu poté, co navštívil oběti opilých řidičů“

„Český prezident navštíví Rusko, čímž se vzepře sankcím EU“

„Rostoucí ceny energií budou šokem, varoval premiér“

To všechno jsou neuvěřitelně věrohodné věci. Tipuju ten první.

To se skutečně stalo. Strojové učení vygenerovalo titulek, že český prezident navštíví Rusko.

Je to velmi uvěřitelné. Tedy možná ne obsah je uvěřitelný, ale konstrukce vět ano.

Foto: Pavel Kasík, Seznam Zprávy

Smyšlený titulek jsme vygenerovali pomocí strojového učení GPT-3 od OpenAI. Tento nástroj umí na základě zadaného textu doplnit další text tak, aby zněl důvěryhodně.

Myslíte si, že lidé pracující v IT společnostech, jako je Google, jsou často technooptimisté, kteří věří, že technologie problémy společnosti spíše vyřeší, než aby je vytvářely?

Myslím, že v Jigsaw jsme určitě na té optimistické straně. Snažíme se vytvářet technologie, které řeší problémy. Dáváme si pozor, aby naše nástroje neměly nezamýšlené důsledky. A pokud se tak stane, upravujeme je, jakmile se o nich dozvíme.

Myslím, že je fér to ukázat na konkrétní situaci. Například u nástroje pro detekci nenávistných projevů jsme dostali zpětnou vazbu, že identifikuje jazyk z LGBT komunity, který je ale v kontextu pozitivní, nikoli nenávistný. Počítač tak vlastně nabádal moderátory, aby odstranili tyto projevy trans komunity. A tak se tým vrátil, získal spoustu nových dat, přetrénoval modely a vylepšil je. Aby skutečně rozpoznaly, že když použijete toto slovo v určitém kontextu, není to projev nenávisti.

Jigsaw se neustále učí. Snažíme se zajistit, aby naše produkty neměly negativní účinky. Chápu však vaši otázku a myslím si, že technologie jako celek mohou mít smíšený dopad.

Sem směřuje i naše další otázka. V počátcích internetu jsme si mysleli, že web povede k lepší informovanosti veřejnosti. Myslíte si, že se tak stalo? Nebo si myslíte, že například dezinformace a další věci způsobily, že veřejnost je méně informovaná, protože existuje tolik informací, že si lidé mohou vybrat, čemu chtějí věřit?

Myslím, že obě věci, které říkáte, jsou pravdivé. Víme, že s rozvojem internetu lidé skutečně přicházejí do styku s více úhly perspektiv. Takže určitě máme bohatší druh informačního ekosystému. Máme přístup k více informacím.

Zároveň je ale pravda, že jsme informacemi zahlceni. O informačním přetížení hodně přemýšlíme v souvislosti s dezinformacemi. Lidé mají opravdu problém projít a posoudit všechny informace. Takže mnoho z toho, co je základem produktů Google, pomáhá lidem velké množství informací filtrovat.

Myslím, že i výsledky mojí práce pomáhají lidem lépe se orientovat v informacích. Ne, že by poznali, co je pravda a co ne. Díky tomu ale poznají, co je manipulativní. Co se mě vlastně snaží o něčem přesvědčit a co se jen snaží být co nejvíc neutrální a nabídnout mi fakta nebo vysvětlení. A právě na rozeznávání názorů od neutrálních projevů je zaměřena velká část mé práce.

Jste součástí think tanku Jigsaw, vaší ambicí je vytvářet technologie pro lepší společnost na celém světě. Mohla byste to vysvětlit na konkrétních příkladech vašich projektů?

Vytváříme vlastní produkty a také máme výzkumný tým, který řídím. Představili jsme třeba službu Outline, to je bezplatná VPN, open source, používá se v mnoha represivních režimech po celém světě, kde mají lidé přístup k internetu. Další nástroj se jmenuje Perspective, jedná se o softwarovou knihovnu, která pomáhá odhalit toxické projevy. Rozpoznávání jsme vycvičili na základě dat z mnoha různých jazyků, myslím, že sedmnácti. Často jej používají novináři, aby se ujistili, že v sekci komentářů není mnoho nenávistných projevů nebo obtěžování.

Takže odstraňování je prováděno konkrétním člověkem, ale detekci dělá strojové učení?

Ano, přesně tak. A máme také spoustu dalších menších experimentů a bezplatných nástrojů, na kterých naše týmy pracují. Můj výzkumný tým dělá všechno od opravdu základního etnografického výzkumu, kdy děláme hloubkové rozhovory a pak publikujeme naše zjištění o řekněme bílých supremachistech, lidech věřících v konspirační teorie atd.

Také děláme behaviorální psychologické experimenty, kde zkoumáme, jak můžeme lidem pomoci, aby byli odolnější vůči dezinformacím. Spolupracujeme s mnoha akademiky a svoje zjištění publikujeme.

Jakou roli bude hrát strojové učení při vyvracení informací a prebunkingu?

Myslím, že strojové učení je zde nejužitečnější v tom, že prosívá všechny informace, kterými jsme přetížení, a pomáhá odhalit tvrzení, která jsou pravděpodobně nepravdivá, nebo narativy, které vídáme dlouhodobě. To jsou dvě samostatné věci.

Pokud jde o tvrzení, která jsou pravděpodobně nepravdivá, strojové učení již používáme ve službách společnosti Google a na dalších platformách tohoto typu. U projektu Jigsaw ne. Platformy to dělají ve svých týmech pro důvěru a bezpečnost, aby označily a odstranily závadný obsah. Takže to bude muset být stále sofistikovanější, protože i dezinformace jsou stále sofistikovanější. V současné době například děláme identifikaci neautentického chování nebo máme boty (počítačové programy, pozn. red.) identifikující deepfakes (podvodné fotky, nahrávky a další audiovizuální materiály, pozn. red.).

Takže už existují některé z těchto technik sloužící k identifikaci dezinformací a jejich následnému odstranění nebo omezení a ztížení jejich nalezení. U prebunkingu nemusíme hledat konkrétní informace. To, co se snažíme udělat, je pochopit, jaké jsou narativy a zda můžeme předpovědět, jaké budou dezinformace za dva nebo tři měsíce. Abychom je mohli prebunkovat již nyní.

Myslím si proto, že strojové učení zde může být opravdu užitečné pro identifikaci vzorců a velkých souborů dat. Pokud vezmeme datový soubor všech ruských dezinformací, můžeme říci modelu strojového učení, aby nám řekl, jaké jsou nejčastější narativy za poslední dva roky, nebo jaké jsou nejčastější narativy o válce na Ukrajině, a začít vytahovat to, co bychom měli prebunkovat. Co si myslíme, že bude v průběhu času konzistentní. To jsme ještě neudělali, ale myslím, že právě tam bychom se mohli vydat. A vím, že existují i jiné společnosti, které dělají podobné věci.

Myslíte si, že umělá inteligence bude umět sama odhalovat a mazat dezinformace?

To je mimo oblast mých odborných znalostí. Rozhodně nejsem odborník na umělou inteligenci. Existují lidé, kteří vědí mnohem více o úloze toho, jak dobrá může být sama o sobě oproti tomu, když je v tom procesu člověk. Všechno, co jsem četla, říká, že je velmi důležité mít někde ve smyčce člověka, ale vlastně nevím, jestli se dostaneme do situace, kdy to nebude pravda. V Jigsaw jsou lidé, kteří o tom vědí víc než já.

Zdroj