No, řekl bych, že nejdůležitější informace v článku je:
U anglicky psaných textů klasifikátor správně detekoval 26 % textů vytvořených umělou inteligencí jako „pravděpodobně sepsané AI“ (true positives), zatímco nesprávně vydával text napsaný člověkem za text od AI v 9 % případů (false positives)
Takže titulek bych změnil na "OpenAI spustil klasifikátor, který je celkem k ničemu."
Úspěšnost lehce nad jednou čtvrtinou a oproti tomu téměř desetinová chybovost typu false-positive z toho dělá celkem zbytečný nástroj. Většině podvodníků podvod projde a naopak se za podvodníky označí stejný objem osob, jako je třetina usvědčených, čili víc jak čtvrtina obviněných byla obviněna neprávem...
a není to tím, že captcha od Googlu používá jako referenční vzorek právě odpovědi od ostatních? Pokud budou převládat při vyplňování roboti, tak i správné odpovědi by se měly postupně více přiblížit vidění robotů než lidí.
Abychom prokázali, že jsme lidi, musíme se vcítit do robota a vyplnit to podle něho, může to znít paradoxně, ale není to tak, nebo myslíte si, že současní "roboti" se umí vcítit do někoho jiného a tvářit se tak? To zatím umí jen člověk. Systém, který pustí roboty a všechni lidi, kteří se umí jako roboti tvářit vypadá jako revoluční evoluce.
Většině podvodníků podvod projde a naopak se za podvodníky označí stejný objem osob, jako je třetina usvědčených, čili víc jak čtvrtina obviněných byla obviněna neprávem...
A to si vážně myslíte, že tohle bude jediný použitý nástroj a že jen na základě výsledku z toho nástroje někdo někoho obviní?
To už se dostáváte do oblasti "Sice to není pravda, ale mohla by být" :)