fbpx

Algoritmy umělé inteligence mohou generovat text dostatečně přesvědčivý, aby běžného čtenáře oklamal. Potenciálně tak poskytují možnost hromadného vytváření falešných zpráv, recenzí a účtů na sociálních sítích. Naštěstí lze AI nyní také požívat k identifikaci falešného textu

Zveřejněno: 13. 8. 2019

Vědci z Harvardské univerzity a laboratoře MIT-IBM Watson AI Lab vyvinuli nový nástroj pro vyhledávání textů, které byly vytvořeny pomocí umělé inteligence. Nástroj dostal poetický název GLTR (Giant Language Model Test Room) a využívá toho, že generátory textu pracující s umělou inteligencí na rozdíl od skutečného významu slov a celých vět spoléhají na statistické vzorce, jež jsou obecně v textech obsažené. Jinými slovy, nástroj může zjistit, zda se slova, která v textu čtete, zdají příliš předvídatelná, než aby je napsal člověk.

Dezinformační kampaně se stále více automatizují a technologie potřebná k automatickému vytváření falešných textů a obrázků se velmi rychle vyvíjí. Nástroje poháněné umělou inteligencí, jako je právě GLTR, se mohou stát cennými zbraněmi ve snaze odhalovat fake news, deep fakes nebo třeba i boty na Twitteru.

Studenti byli schopni odhalit pouze polovinu umělých článků bez pomoci GLTR, pokud ale tento nástroj měli k dispozici, tak jejich úspěšnost stoupla na 72 %.

Vědci ze společnosti OpenAI nedávno představili algoritmus, který dokáže stvořit překvapivě realistické pasáže textu. Algoritmus využívající strojové učení nakrmili obrovským množstvím textů, a právě díky hrubé síle a množství dat se pak algoritmus naučil rozpoznávat statistické vzorce v používání slov. Tým z Harvardu potom na tomto nápadu postavil svůj nástroj a dal ho k dispozici veřejnosti, vyzkoušet si ho tedy může každý.

Předvídatelná spojení

GLTR zvýrazňuje slova, která se s určitou pravděpodobností objeví za předchozím slovem v textu. Jak je vidět na testovacích vzorcích, nejvíce předvídatelná slova jsou podbarvena zeleně, méně předvídatelná žlutě a červeně. Nejméně předvídatelná slova jsou pak fialová. Při testování na úryvcích textu napsaného pomocí algoritmu OpenAI bylo odhaleno mnoho předvídatelných slov, jinak řečeno celý text je podbarven zeleně a je zřejmé, že vznikl uměle. Naopak případy článků či vědeckých studií odhalují jistou originalitu a nepředvídatelnost, zastoupeny jsou v nich všechny barvy a nechybí ani nejvíce překvapivá fialová slova.

Vědci v prostředí GLTR provedli také další experiment. Požádali studenty Harvardu, aby identifikovali text generovaný umělou inteligencí. Nejprve bez tohoto nástroje a poté s jeho pomocí a zvýraznění slov barvami. Studenti byli schopni odhalit pouze polovinu umělých článků bez pomoci GLTR, pokud ale tento nástroj měli k dispozici, tak jejich úspěšnost stoupla na 72 %.

Související…

Dokonalé deepfakes? Systém dokáže opravit přeřeky i doplnit slova na videu
Jan Handl

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...