A pak těm Vibe coding tupcům vysvětlujte, že lze LLM/LRM manipulovat pomocí technik jako Data poisoning, Tool poisoning, Prompt injection etc. Nehledě na to, že kódy tvořené AI mají běžné zranitelnosti jako Path traversal, SQL injection, XSS a další. Oni mají pocit, že tomu nemusí rozumět, hlavně když to funguje a LLM jim řeklo, že je to bezpečné.
Nebo si do Cursoru nainstalují fake rozšíření na práci s Ethereem a přijdou o crypto v peněžence na disku za 11mil Kč...
https://www.bleepingcomputer.com/news/security/malicious-vscode-extension-in-cursor-ide-led-to-500k-crypto-theft/
"pomocí chat GPT zabezpečit a rozběhat prostředí" no a tohle právě je ta velmi slabá stránka věci. Prakticky je problém z toho dostat použitelný (myšleno dostatečně bezpečný) výsledek i pro mě, který tu bezpečnost 20 let dělá jako hlavní činnost a jsem schopný nějak výstup i posoudit.
Svěřit pak takové aplikaci něco kritického a důležitého je vyloženě hazard, na to mysli.
Těch nástrojů je víc, já používám ROVO dev od Atlassian. Jsem bývalý konzultant, takže jsem pár systémů do firem implementovala. Manžel je živnostník, pracoval hlavně v Excelu a Wordu. Takže mu jako koníček buduju skvělý podnikový systém, od automatického vytváření projektů a dokumentů po CRM s rozvětvenou fakturací. Stačilo pronajmout server v cloudu, pomocí chat GPT zabezpečit a rozběhat prostředí a pak jen dirigovat agenta nechat ho dělat. Poslouchá líp než programátoři a neodmlouvá. A celá ta legrace za 8 dolarů měsíčně (20 mil tokenů)