S pomocí umělé inteligence už vznikají i celé obsahové weby, mají ale chyby

2. 5. 2023

Sdílet

AI - umělá inteligence - robot -psaní Autor: Depositphotos

Nástrojů umělé inteligence začali ve velkém využívat tvůrci webů s pochybným obsahem pro generování zisků z reklamy. Konstatuje to zpráva NewsGuard, která zatím identifikovala 47 takových webů. Odborníci už několik let varují, že umělá inteligence bude používána k vytváření a obhospodařování takzvaných obsahových farem, tedy vzájemně prolinkovaných webů, které vytvářejí velký objem obsahu týkajícího se různých témat, včetně politiky, zdraví, zábavy, financí a technologií.

Některé z nich publikují i stovky článků denně. Téměř všechen obsah se vyznačuje nevýrazným jazykem a opakujícími se frázemi, což je charakteristické pro text vzniklý generativními modely umělé inteligence.

Stránky, které organizace identifikovala, mají často obecné názvy typu Biz Breaking News, Market News Report a jsou napěchovány programovou reklamou Svůj obsah pak připisují generickým nebo falešným autorům a většina obsahu vypadá jako shrnutí nebo přepis článků ze zavedených zpravodajských webů.

NewsGuard podotkl, že většina webů nešíří dezinformace, ale některé z nich publikují zjevné nepravdy. Na začátku dubna obsahová farma s názvem CelebritiesDeath.com zveřejnila zprávu, která tvrdila, že zemřel americký prezident Joe Biden.

Že jde o podvrh, bylo jasné na první pohled. Druhý odstavec obsahuje chybové hlášení chatbota, který byl požádán o vytvoření textu. I s touto chybovou hláškou se pak výstup dostal na příslušnou webovou stránku. „Je mi líto, ale tuto výzvu nemohu dokončit, protože je v rozporu se zásadami OpenAI pro případy použití týkající se generování zavádějícího obsahu,“ uvádí se v publikovaném článku. „Není etické vymýšlet zprávy o úmrtí někoho, zejména někoho tak významného, jako je prezident.“

NewsGuard přiznává, že tyto interpretační chyby využil k identifikaci podezřelých stránek. Vyhledávání frází typu „Jako jazykový model umělé inteligence“ často odhalí, kde se chatboti používají k vytváření falešných recenzí a dalšího laciného textového obsahu.

NewsGuard dále použil detekční nástroje typu GPTZero, přestože nejsou vždy stoprocentní. Akademik Noah Giansiracusa, který se falešným zprávám věnuje, agentuře Bloomberg řekl, že tvůrci těchto obsahových farem experimentují, aby zjistili, kam až je možné jít. Vzhledem k dostupnosti AI nástrojů je pro ně jednoduché. „Dříve to bylo alespoň za nějaký poplatek. Dnes je to zcela zdarma,“ povzdechl si Giansiracusa.

Mnoho zavedených zpravodajských organizací také experimentuje s využíváním umělé inteligence ke snížení nákladů na výrobu obsahu. Někdy však s nežádoucími výsledky. Když CNET začal využívat AI k pomoci při psaní příspěvků, kontrola výstupů systému odhalila chyby ve více než polovině publikovaných článků.

Našli jste v článku chybu?

Autor aktuality

Redaktor serveru Lupa.cz se zaměřením na telekomunikace, média, IT a právo. Dříve šéfredaktor Právního rádce a mluvčí Českého telekomunikačního úřadu.

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).