Umělá inteligence Gemini má dočasně zakázáno kreslit obrázky lidí. Černoši v uniformě Wehrmachtu vyvolávají výsměch

před 2 měsíce 81

Odezva na sociálních sítích byla a je taková, jaká se dá čekat: dílem pobavená, dílem rozhořčená. Někdo se škodolibě baví, že se zrovna velkému, pyšnému a bohatému Googlu přihodilo tak viditelné nedopatření. Někdo vidí v generovaných obrázcích důkaz, že se vývoje umělé inteligence definitivně zmocnili extrémní woke levičáci a začala éra orwellovského přepisování dějin.

Realita je jednodušší. Dá se popsat spíš jako programátorská než politická chyba. Případ však názorně ukazuje, že tyto dvě kategorie se mohou v dnešní době překrývat.

Jednoduché špatné řešení

Popsaná výchylka může vzniknout dvěma způsoby: buď učením, nebo příkazem. V prvním případě jde o selektivní výběr trénovacích dat, takže model si pak opravdu „myslí“, že poskytuje správný a jediný možný výsledek. (A vzhledem k tomu, z čeho se učil, ho opravdu poskytuje.) Druhý případ spočívá v tom, že model sice zná správnější odpověď, ale dostane pokyn, aby ji nepoužil.

A právě to se stalo. Podle informací, které jako první zveřejnil americký novinář Noah Smith, byl model Gemini nastaven tak, že do požadavků na obrázky lidí automaticky doplňoval slovo „diverse“ (různorodý, v tomto kontextu rasově různorodý).

Vy si tedy řeknete například o středověké britské panovníky, Gemini tento požadavek doplní

Tento článek je exkluzivním obsahem pro předplatitele Deníku N.

Přečtěte celý článek