Už nečtu e-maily. Každý den ráno mi do Telegramu přijde soupis všeho, co se mi prohnalo schránkou. A když přijde něco důležitého, agent to vyhodnotí a pošle mi do Telegram upozornění rovnou, říká CTO české firmy Keboola Jiří Maňas. Do budoucna věří v příchod osobních AI asistentů, kteří za nás budou dělat řadu běžných úkonů.
AI podle něj brzy pronikne do většiny firem. „Každý bude mít AI agenta a každý bude mít MCP server. Přijde obrovská exploze těchto nástrojů a každý se bude chtít prosadit, aby jeho produkt byl stále relevantní,“ popisuje.
Keboola nedávno prošla „AI transformací“. Společnost začala AI modely používat v rámci produktového vývoje například pro tvorbu funkčních protopytů, LLMka ve velkém využívají také vývojáři a firma experimentuje s interními AI agenty i v dalších oblastech. Společnost nedávno spustila i svůj MCP server, který AI modelům umožňuje pracovat s daty.
Jaké zkušenosti má Keboola s využíváním AI? Jaké AI agenty firma interně používá? A nebojí se závislosti na provozovatelích LLM? Rozhovor s Jiřím Maňasem si můžete poslechnout ve formě podcastu na svých oblíbených podcastových službách nebo přímo zde:
Nabízíme vám také přepis části podcastového rozhovoru do textu. Podporovatelé Lupa.cz zde mají k dispozici kompletní přepis (využíváme k němu AI služby Whisper a Claude, text je poté redakčně upraven).
Před pár měsíci jsem zachytil blog, kde Petr Šimeček popisoval, jak se Keboola téměř z noci na noc nebo ze dne na den stala AI firmou, jak ji to totálně proměnilo, jak změnila své procesy od navrhování produktů přes vývoj aplikací a jak se to všechno stalo strašně rychle a téměř mimoděk a nikdo vlastně neví jak. Je to tak? Změnila opravdu AI zásadním způsobem, jak firma funguje?
Určitě ano. Budu samozřejmě trošku korigovat očekávání: ze dne na den to samozřejmě úplně nebylo, ale byla to oproti jiným změnovým řízením vcelku rychlá změna. Pracoval jsem ve velkých firmách a když se tam dělaly velké změnové projekty, plánovalo se a byly to třeba roční projekty, ale my jsme do toho šlápli vcelku zostra. Bylo to hodně tím, že jsme vysvětlili, proč bychom ty změny měli dělat a nechali jsme je řídit bottom up, abychom je nevymýšleli shora, protože mám velký respekt k tomu, že spousta inženýrů je velmi chytrých a vědí, jak ty věci používat. Takže například naše vývojové procesy teď zcela zásadně používají AI při vývoji. Náš CEO Pavel Doležal už zhruba před měsícem poslal pull request na vývoj, vývojáři si popovídali s AI agentem, který mu pomáhal ten pull request dělat a naimplementovali to do produkce.
Takže už si nemuseli povídat s Pavlem Doležalem, ale jenom s tím agentem.
Ano a bylo docela zajímavé. Pavel popsal svůj záměr, co by chtěl udělat, agent, který měl navnímanou naši codebase a naši dokumentaci a coding standards, to zpracoval, připravil, připravil kód, submitnul to do pull requestu. A i když naši vývojáři řekli, podívej, tyhle barvy nejsou úplně naše barvy a podobně, agent sePavla zastával a říkal, no ale přesně takhle to můj zadavatel chtěl. Nakonec, když mu dali dokumentaci a odkaz na to, že opravdu reálně máme nějaké standardy barev, tak se přizpůsobil a nakódoval to pak správně.
Říkal jsi, že ta změna neproběhla samozřejmě úplně ze dne na den. Jak jste tedy začali? Někdo přišel a říkal, podívejte, tady je ChatGPT nebo Claude a prostředním LLM se čím dál tím víc vyvíjí a čím dál tím víc píše kód, pojďme to zkusit? Jak to u vás ve firmě proběhlo?
I díky tomu, že jsme technologická firma, hodně sledujeme trendy. Máme i naše týmy v Americe, teď jsme měli například 6 měsíců tým v San Franciscu, abychom byli opravdu blízko tomu, jak AI komunita vidí budoucnost. A už minulý rok někdy po prázdninách jsme začali registrovat, že LLMka už se dostaly do toho stádia, že nekódují nesmysly a jsou opravdu nějakým juniorním pomocníkem programátorů.
Tehdy byl první výkop, kdy jsme řekli, pojďme se na to podívat. Ale kluci řekli, že, máme copiloty, je to dost podobné, není tam žádná převratná věc. A pak někdy v prosinci vyšly zase nové verze jazykových modelů, myslím, že to byl Claude 3.7, které opravdu začaly sypat už vcelku použitelný kód.
V tu chvíli jsme uvolnili jsme hráze všem modelům. Chápu, že pro některé firmy to může být cenově nepřijatelné. Některé společnosti samozřejmě i řeší bezpečnost a nemůžou LLMka pustit do firmy. I my jsme si samozřejmě dali nějaké guardrails, aby se nám tam neobjevily naše klíče a různá zákaznická data.
A řekli jsme si, pojďte si vyzkoušet, co je teď na trhu zajímavé a pojďte to sdílet zpátky do firmy. Protože to, že si náš developer něco vyzkouší a velmi mu to pomůže, nedává smysl bez toho, že to pak nasdílí dál. Proto jsme si zavedli sdílecí pátky, kdy si inženýři ukazují, jak jim LLMka pomáhají.
Hodně se psalo o tom, jak AI údajně všechny vývojáře nahradí. Je to tak? Znamená to, že když používáte AI nástroje, mohli jste polovinu lidí propustit a jste mnohem efektivnější?
My k tomu takhle nepřistupujeme. Nedávno jsem četl, že Microsoft propouští další tři tisíce lidí. Ale jde hodně o lidi se salesu. Nezaregistroval jsem úplně, že by v tuhle chvíli propouštěli vývojáře. My k tomu přistupujeme z hlediska paradigmatu, že jakmile se jeden systém zefektivní, nutně to znamená, že se bude konzumovat méně zdrojů.
Příklad: někdy v 18. nebo 19. století byl vynalezen efektivnější parní stroj a k dosažení výkonu bylo potřeba méně uhlí. A existovaly dvě teze. Jedna říkala, že teď nebude potřeba tolik uhlí, tudíž cena uhlí spadne. Ale ti chytří říkali, že když se zefektivní parní stroj, bude se moc používat na víc využití. A to je to, co se nakonec stalo.
Velmi podobná paralela je DevOps nebo zavedení cloudu. Firmy říkaly: teď si budou vývojáři dělat celou infrastrukturu sami, takže můžeme propustit vždycky infrastrukturní lidi, že ano. Chytré firmy si je najaly a hloupé firmy je pak těžko přetahovaly zpět, protože ta disciplína zůstala, jenom se stala efektivnější a dosažitelnější.
A přesně to si myslíme, že se stane z používání AI. Snižuje bariéru toho, aby si lidi nakódovali něco sami, zvyšuje efektivitu lidí, kteří kódují a vývojáři se nemusí crcat s nějakými tasky typu „tady udělej description“ nebo „tady mi posuň nějaký vizuální efekt“ a můžou se věnovat disciplínám, které jsou vysoce inženýrské, například throughput platformy, nebo správnému nastavení security, aby na back-endech byly autorizace, aby to celé správně fungovalo. Vlastně jim rozvazuje ruce a budou toho umět a smět dělat víc.
Říkal jsi sám, že lidé si budou moct s pomocí AI kódovat věci sami nebo nechají LLM vytvořit hotovou aplikaci a podobně. Schopnosti LLM v tomhle směru do budoucna nejspíš ještě porostou. Není to na druhou stranu pro vás jako pro technologickou firmu trošku hrozba? I když, vy jste asi docela specializovaná firma, takže vás to asi tolik nezasáhne.
Zase trochu věštíme z křišťálové koule, ale my budeme dělat všechno pro to, aby nás nikdo nenahradil. Jsme specializovaní a máme 15 let zkušeností s prací s datovými pumpami a ta datová disciplína je trošku specifická. Ale samozřejmě se nabere obrovská rychlost a řešení začnou být hodně komplementární, protože budeš moc přidávat víc a víc „feature“ a bude to pro tebe jednodušší. Nebudeš muset tolik řešit omezení zdrojů, protože budeš mít efektivní vývojový tým.
Takže se samozřejmě ten závod zrychlí, teďka uvidíš, budou do toho šlapat i hyperscaleři, řešení budou hodně komplementární, budeme se koukat na to, co už je komodita, budeme se koukat na to, co už se řeší jenom skrz peníze, co je ta odlišnost, differentiation.
Udělali jsme si strategické mapování, používáme Wardley mapping, což je zajímavá disciplína, kde se můžeš podívat, kam se budou jednotlivé komponenty posouvat a jestli je to to, na co se chceš soustředit a kde je uživatelská hodnota. V datech vidíme, že dneska je stále spousta vytváření datových pump a datových řešení hodně manuální, je tam potřeba řešit integritu dat.
Když si spustíš datovou pumpu, která přechroustává terabajty dat, tak se výsledek se nedozvíš za 20 sekund, musíš počkat, podívat se na kontrolní součty. Ale celá datová disciplína podléhá změně úplně stejně jako všechny ostatní disciplíny.
Jenom když to porovnám: říkal jsi, že jazykové modely se zlepšují, samozřejmě je otázka, co tady zůstane za například pět, deset let. Dneska se každých šest měsíců zdvojnásobuje jejich takzvaná chytrost a používají se difuzní modely, to znamená ty, které nejdou zleva, zprava, ale jedou jakoby z prostředka, a významně urychlují zpracování informací. Možná se k nim přidá nějaká matematika a teorie z padesátých let se konečně uvedou v praxi a zase budeme mít by nové modely.
Takže nevíme, které modely s námi zůstanou, ale některé disciplíny mohou být dost ohrožené. Dám takový příklad: jako uživatel řešíš nějakou datovou otázku, například se chceš podívat, kolik jsme měli při tomto podcastu posluchačů. Máš někde nějaký dashboard nebo report, nebo poprosíš kolegu, aby ti to vygeneroval z nějakých stránek. A chceš mít firemní interface, kam se podíváš, jak ten včerejší podcast dopadl. Ale nepotřeš mít ten dashboard k dispozici 24 hodin denně. A dneska je AI schopna vybudovat ho tzv. on the fly, to znamená, že si řekne, aha, potřebuju tyto tabulky, ty jsme si našli tady, vizualizaci postaví v nějakém scriptu a ukáže ti, takhle to dopadlo. Spousta věcí se může začít používat on the fly. Nebo řekneš, super, tohle se mi líbí, posílej mi to každý den ráno do telefonu.
LLMka jsou dobrá v analýze dat. Alespoň těch textových, u matematických operací je to horší, ale dá se to řešit nějakými pluginy a podobnými záležitostmi. Ale zrovna analýza dat a práce s daty, to je váš core business. Necítíte se ohrožení právě v téhle oblasti?
Tam se právě cítíme pevní v kramflecích, protože, jak jsi říkal, jsou to hlavně jazykové, statistické modely. A z principu pracují s tokeny a matematiku neumějí. Existuje foundation model a nad ním sedí sekundární vrstva, learning. Ten dnes buď dělají lidi, anebo už si reinforcement learning dělají samy AI. Ale počítat ze své podstaty neumí, proto existují ty adony, jak jsi říkal, a LLMka si umí naprogramovat python k tomu, aby si ty věci daly dohromady.
Pro nás je velice relevantní, že když dáš AI naše nástroje, tak si může říct, potřebuju poskládat pro uživatele poslechovost tohoto podcastu. Jsou k tomu nějaké tabulky s daty? A podívá se do nás, nebo do nějaké platformy a řekne, OK, mám tady z onlinu tabulku, že se na YouTube kanál přihlásilo tolik a tolik lidí. A ty řekneš, ale to je jenom YouTube kanál, byli jsme ještě na Apple podcastech a mám tady další čtyři tabulky, tak mi je spoj. A on je spojí za pomocí naší platformy, kde je velmi rigidní, patnáct let investovaná struktura toho, jak z ní mají data vypadnout správně.
Tomu půjdeme hodně naproti, protože všichni datoví inženýři potřebují mít jistotu, že data jsou správně. Nebudeš chtít mít u sebe skill, abys si to mohl zkontrolovat. Uvidíš třeba patnáct tisíc lidí a minule jsme měli čtyři tisíce, ale je to vůbec pravda? Jak já to prozkoumám? A budeš muset debugovat zpátky to, co ti ta LLM napsala, jestli je to správně.
A my se paralelně budeme koukat na to, abys měl nástroje typu datová integrita nebo abys měl nástroje typu, že druhá LLM se ti podívá na výsledek a řekne, jestli je správně, nebo ne. I u LLM je velká disciplína toho, jakým způsobem kontrolovat jejich výstupy, je to přece jenom stochastický systém. To všechno my dnes dáváme do platformy, abychom lidem usnadnili to, že když dostaneš nějaký výstup, můžeš mu věřit.
A co pak je teda to LLMko? Je to nové rozhraní mezi uživatelem a daty? Nebo k čemu je to teda vlastně dobré? K tomu, že si můžu povídat s chatbotem a dávat mu slovní zadání, aniž jsem odborník na danou oblast?
LLMko je vlastně statistický papoušek, velmi zjednodušeně řečeno. Dává možnost, že nepotřebuješ dekomponovat to, co máš v hlavě, přes svoje ruce a přes nějaké zadání, což je počítač a nějaký interface, myš, klávesnice, do stroje. Je to nové rozhraní toho, jakým způsobem si můžeš popovídat s počítačem a dávat mu úkoly.
Andrej Karpathy, jedno ze zajímavých jmen v oblasti AI, k tomu velmi hezky říká: nejdřív byla command line, naše generace si to ještě pamatuje, pak přišly Windows, které umožnily používat počítač i lidem, kteří se nechtěli učit command line. No a teď se posouváme do verze tři, což je angličtina. AI modely jsou schopné dekomponovat jazyk do nějakých struktur a udělat za tebe tu práci.
Teď jim stavíme nástroje, aby se si dokázaly agentsky říct, uživatel po mně chce vypnout televizi, mám tady nástroj na vypínání televize? Ano, tady je nástroj na vypínání televize, tak ho zavolám a vypnu televizi.
Takže opravdu jde hlavně o nové rozhraní. A časem to bude spíš hlasové rozhraní než psané, že ano?
Uvidíme. Je to zajímavá myšlenka, je to taky generační záležitost. My jsme vyškolení na tužce a papíru, takže pro nás je důležité vizuální zpracování. Oči mají daleko větší bitrate než hlas. Proto si myslím, že to stále bude kombinace. Například už nebudeš chtít zadávat pokyny rukama, protože ruce nemají ten bitrate, budeš to chtít například říkat, ale zpracovávat výsledky klidně můžeš vizuálně, protože jsme stvoření na vizuální zpracování informací.
Uvidíme, to už opravdu věštíme z křišťálové koule. Rád bych se ještě vrátil k psaní kódu a k vývojářské práci. Říkal jsi, že vaši vývojáři začali s LLM různě experimentovat. Jaké s nimi máte zkušenosti? Vím o řadě stížností, že modely pořád nedávají přesné výsledky, všechno se po nich musí kontrolovat, občas napíšou úplnou blbost a podobně. Jak se tohle posunulo a s kterými LLM máte nejlepší zkušenosti?
Není to tak, že bys jim mohl svéhlavě věřit a pokud třeba píšeš bankovní backend, řekneš AI „napiš mi to“ a pak to jen dáš do produkce. To ani náhodou. Navíc by to nebylo ani regulatorně správně, protože v bankovnictví potřebuješ auditovatelnost a podobně. Pro jakékoliv prototypování už to funguje. To znamená, že když si chceš vyzkoušet, jak by mohla tvoje aplikace vypadat, jak by mohl vypadat nový interface, tak na to jsou různé nástroje. Třeba Google AI Studio se za poslední tři měsíce velmi posunulo, úplně si tam buildíš a máš tam i možnost nasazení a sdílení. Nebo služba Lovable a všechny další nástroje pro uživatelské, velmi rychlé generování. A to je skvělé například pro produkt, aby si s tím produkťáci pohráli a řekli, tohle by mohlo být zajímavé, udělali uživatelské testování a tak podobně.
Takže můžou vytvořit funkční makety.
Přesně tak. Figma nedávno zprovoznila MCP, to znamená, že můžeš LLM volat přímo z Figmy, nebo si naopak můžeš zavolat Figmu. Takže tohle se posunulo zcela zásadně a řekl bych, že pokud to dnes lidi nepoužívají, tak trošku zaspali. Velmi to zefektivňuje práci. A na to navazují vývojové procesy. Velmi rychle si dokážeš vytvořit prototyp. A pak existují nad různými LLMky velmi zajímavý agenti. Nám velmi dobře funguje Claude 4. Máme dokonce i lidi, který Claude Code používají přes command line. Například jeden z našich sekuriťáků (smích). Gemini 2.5 už je velmi schopná a vlastně i ChatGPT o3 velmi dobře kóduje, i když tam nepotřebuješ ten reasoning model. Ale teď nastoupil nový startup, u kterého jsme udělali jsme pár referenčních věcí. Inspirovali nás, řeknu to tady otevřeně, kluci z Rohlíku, s kterými spolupracujeme. Řekli nám, podívejte se na to, je to opravdu skvělé. Někdy v lednu jsme se na to koukali. Oni dokonce za nimi jeli do San Francisca. Je to firma, která dělá agenta, který se jmenuje Devin. A to je vlastně agent naučený na velkých codebases, kterého dokázali posunout do té úrovně, že máš v Jira nějaké požadavky od produkťáka, který tam dá například nějaké zadání, potřebuje upravit produkt, ty tam označíš toho Devina a řekneě, hej Devin, koukni se na to a připrav mi pull request. A on to celé rozebere, doptá se – pokud potřebuje, má tam i human in the loop, vleze si do GitHubu, najde si repository, kde by to mělo být udělané a připraví normálně pull request, který přijde vývojáři, který se na to podívá. A to jsem zmiňoval trošku na začátku: vývojář se na to podívá a řekne, podívej, co jsi to tady napsal za proceduru, to je strašně komplikované, já bych to dělal jinak. A on to vezme, refaktoruje to a udělá to jinak. Takhle si s ním ten vývojář v GitHubu popovídá, má připravený pull request, který je otestovaný, prošly ti CI/CD pipeliny a ty dáš jenom merge. Zní to dobře, ale velké věci na backendech to ještě nedá, tam je práce vývojáře pořád nedocenitelná. Ale pomůže jim to, že se nebudou opravdu muset se spoustou věcí hrabat sami. Bavili jsme se o tom, že to vlastně může pákovým efektem hodně přepákovat požadavky na engineering. Když si to tak vezmu, tak produkťák si udělá pomocí AI rychlý prototyp – a to funguje tak, že zadáš prompt, řekneš, nějak si s tím hraj a jdeš dělat něco jiného. Věnuješ tomu tři, čtyři minuty, ono to pak něco dělá, pak se na to podíváš a zase tomu věnuješ pár minut a pak to pošleš na toho vývojáře. Ten si to ale musí pročíst. Takže vlastně máš deset minut práce vůči například půl hodině, aby vývojář se do toho nabootoval, takže to může trošku přepákovat požadavky, které začnou lítat. Ale když jsem se o tom bavil s klukama od nás, říkal jsem jim, jak se budete cítit, když vám začnou lítat hotové pull requesty a vy se budete vlastně hodně věnovat review, než dělání kódu. A oni říkali, to je pro nás super, my si tím odbavíme všechny jednoduché věci a můžeme se věnovat těm backendovým věcem nebo složitým věcem, které jsou pro nás důležité.
Říkal jsi, že LLM ještě nezvládají složitější věci, například na tom backendu a podobně. V čem je to omezení? Mají třeba ještě příliš malé kontextové okno, aby si načetli všechno, co potřebují? Zkoumali jste nějak, proč vlastně například některé věci zatím nejdou?
Takhle do hloubky jsme úplně nešli. Nemáme experty na AI a tvorbu foundational modelů. Samozřejmě kontext je všechno. I když si stavíme agenty pro sebe, nakonec dospějeme k tomu, že tomu agentovi musíš víceméně skoro říct, kolik je hodin, jaký je dneska den, kolikátý je den v měsíci. Oni si tyto informace v rámci svého systémového promptu dodávají. Ale když se agenta na něco zeptáš, tak mu skoro musíš říct, sedím tady, dělám podcast, venku je 35 stupňů. A opravdu mu dá celý kontext. Firmy, které jsou v tom hodně daleko, zjišťují, že pokaždé musíš do toho agenda poslat hodně věcí. A myslím si, že toto souvisí trošku s tím kodováním. Navíc oni generují kód pořád stejně – statistickým opakováním a papouškováním věcí, co jsou na internetu. To znamená, že pokud ty věci nemají v historii někde nějakou prezenci, nejsou to standardizované věci, je to něco, co děláš jen ty na svém produktu, tak není nikde na internetu popsaná a je velmi nepravděpodobné, že už ji někdo řešil. A tím pádem ti to agent nevyřeší dobře. Standardizované věci řeší úplně skvěle, a nestandardizované velmi těžce. A tím se dostáváme k nedocenitelnosti současných seniorních vývojářů.
Takže bývá například problém i v kvalitě toho, co LLM odvede? Když to velmi zjednoduším, napíše nějaký kód a když pak na to koukne lidský vývojář, řekne, dobře, ale tady je pár tisíc řádků kódu, a já bych to napsal na pár set, není to efektivně napsané. Máte tyhle zkušenosti?
Určitě se to tak děje. Tam je samozřejmě potřeba se podívat na to, jestli ti za to stojí se v tom vrtat. Jestli je to nějaká interní appka, kterou bude používat pět uživatelů v organizaci, tak tam vlastně v uvozovkách můžeš říct, podívejte, mě vlastně ta efektivita toho kódu moc nezajímá. Hlavně, když je to bezpečné, potřebuješ tam mít sjetý zase naopak kontrolu a zase je otázka, bude to dělat člověk nebo by to měl dělat jiný agent, nebo dneska jsou na GitHubu řešení, kde se můžeš podívat, jestli je ten kód napsán bezpečně, jestli tam nemáš nějaké díry a vulnerability. Ale třeba si řekneš, to vůbec nechci řešit. A jestli je to neefektivní, tak tady dám k tomu virtuální mašinu navíc a bude to. Ale pak máš samozřejmě nějaké high performing zákaznické řešení, kde chceš, aby to bylo super, aby tam zbytečně ten kód nebyl. A tam je to tak, že i dneska ten kód se negeneruje úplně super efektivně. Ale když už mu řekneš, jak bys to například dělal jinak, tak on to udělá. Na druhou stranu například i vývojáři občas řeknou, udělal to jinak, než bych to udělal já, protože samozřejmě jak je naučený na internetu, tak tam ty postupy můžou být jiné. Takže opravdu to má velký penzum zkušeností z internetu. Takže si myslím, že je to pro programátory hezký komplementární kámoš.
Ty už jsi říkal, že používáte ve firmě agenty. Co to znamená a k čemu všemu je používáte? Jak to funguje?
Ano, to je úplně krásná Pandořina skřínka. Nevím, jestli znáš gartnerovské hype cykly…
Ano.
Myslím, že jsme tam ještě nedolezli, anebo už jsme na špiče a teďka bude ten sešup dolů. Teďka začínají přicházet první věci, kdy se začíná zjišťovat, že to nebude tak jednoduchý. Asana měla velký únik informací, nasadili MCP servery a někdo si to probrnk a vybral jim všechna data. Bude tam spousta legrace. A teď z hlediska agentů, já se pak dostanu k nějakém příkladům, ale my vlastně máme agentický runner, máme tam nějaký interface k tomu, aby agent přistupoval dobře k datům a k databázi. Máme naše MCP servery ze stejnýho důvodu. A máme zajímavý předpoklad. Pokud vezmeš předpoklad toho, že dneska nejlepší AI agenti jsme stále my lidi, kteří dokážou sedět za stolem, jsou vlastně autonomní, mají nějaké zadání, máme nějaké KPIčka, umíme se učit, jsme multimodální, takže vlastně splňujeme zadání toho, aby se nám mohlo říkat AI agenti.
Akorát ta produktivita, no dobře, no (smích).
Jo, špatně se klonujeme (smích). A přesto ale máme po 50 letech nějakého procesního řízení ve firmách vymyšlený celý řídící systém typu je tam nějaký junior, ten má nějaké školení, je tam team leader nebo senior, který se o něj stará, kontroluje jeho výstupy, aby se neudělaly chyby, že ano. Máme nějaké oddělení, které kontroluje jiná oddělení, takže například security, a máme ještě jiné oddělení, které to kontroluje celé, například audit, a pak máme regulátora, který to kontroluje celé na celém trhu. A to jsme si teďka udělali okolo sebe, okolo lidí, protože jsme stochastický, děláme chyby, a tak podobně. A pokud přijmeš premisu toho, že tenhle systém jsme si udělali pro nejlepší AI zatím, který existuje, a to jsou lidi, tak vlastně velmi podobný systém bude vznikat okolo agentů. Ale ještě není nadesignováný ani náhodou. Teď vylezly nějaké první white papery, Google si udělal agent to agent protocol, spustilo se MCP, každej ti je schopný runovat agenta, ale například, a teď se pomalu dostanu k těm agentům, které jsme si zkoušeli nasadit nebo které máme nasazené, máš například, představ si, HR agenta, který řeší HR agendu. Takovou tu obyčejnou, přestěhoval jsem se a mám potřebu v našem HR systému změnit adresu. A teďka, některý HR systémy už máš takzvaný self-service, některý nemáš, takže někdo tam má přístup. Takže jsou firmy, kde se to posílá na HR, a tam to musí hrát do systému a změnit to. A teď si představ, že si tam nasedíš toho agenta. No a lidi budou kreativní, zjistí, že dokáže změnit adresu, tak hnedka zkusej, a co například mi změnit vejplatu? A když toho agenta uděláš špatně, dáš mu přístupy, které mít nemá, tak řekne, proč ne.
Zvlášť ve vývojářské, technologické firmě…
No a vlastně zjistí, že budeš muset přesně vymyslet ty věci: kdo ho smí volat, na základě čeho je autorizovaný to dělat. Musí mít kontrolu čtyř očí? Bude se ptát nějakého člověka, nebo tam můžu naimplementovat agenta kontrolora, který mu bude autorizovat požadavky. No a teďka zase, jaký mu dám přístup k datům? Když je to agent, který řeší HR business partnering a má popsáno, co má řešit, tak mu přece nedám přístup k celému HR systému. No ale můj přístup k HR systému je přes frontend, no a ten agent tam nebude klikat, takže mu dám přístup do databáze? No, do celé mu přece přístup nedám, protože tam je spousta citlivých údajů. Takže mu například potřebuji vypublikovat jenom nějakou malou tabulku a říct, tady máš jenom read only, abys mohl odpovídat, kolik máš dovolený nebo nějaké takové věci. A tady ten celý systém teprve vzniká, a dostáváš se ke spoustě takovýchhle zajímavých use cases. Není to tak, že vezmeš procesní základnu, někam to nahraješ a řekneš: vyprodukuj mi agenty. Od toho jsme hodně daleko.
A jaké agenty používáte tedy používáte?
Máme tam například agenta na HR, který kontroluje kvalitu dat v systému, to znamená, když tam nemáš napsaný věci, typu domácí adresa nebo emergency kontakty, tak ti napíše na Slacku a řekne, podívej, opravdu by bylo dobré, abys to tam napsal, protože jednak to máme v policy a jednak je to dobré, když se něco stane, tak abychom ty informace věděli. Tak to je takový jednodušší agent a ty se mu dneska už můžeš ozvat a říct, zařiď mi něco. A tam prototypujeme věci typu, koukni se, kolik mám dovolený a tak podobně, takový ty jednoduchý případy. Máme taky agenta, který dělá tak takový ten sales, říkáme tomu outreach, když salesák jde někam do firmy, chce si zjistit něco o tom člověku, tak si tě najde na internetu, udělá research, najde si tě na LinkedInu a řekne, to bude asi tady ten člověk a teďka například nedávno přišel do nový firmy, tak mu pogratulujeme, a připraví ti pro něj například welcome e-mail a řekne, podívejte, my jsme z Kebooly, ty jsi byl zrovna zrovna povýšený na chief data officer a tak podobně. To jsou takový opravdu jednoduchý use cases a teďka budeme dávat nějaký welcome e-mail, že když se zaregistruješ k nám na platformu, tak taky ti uděláme velmi personalizovaný welcome e-mail k nám. A připravujeme samozřejmě další. Máme partnery typu Deloitte nebo PWC, s kterými řešíme právě tady ty frameworky a jak to udělat tak, aby to bylo použitelný i v rámci organizace, jak tam naimplementovat právě human in the loop, kam toho agenta pustit. Koukáme se i na finance. Náš head of finance vždycky říká, 80 % financí je o tom, že vytěžujeme data, abychom je měli správně. Zbylých 20 %, ty kalkulace, to už umíme. Tak říkám, udělejte na to agenty, ne? Aťsi to s těma lidma vydiskutuanou, že ta účtenka, kterou poslali na finance, není správně. Do budoucna, už jsem koukal, že proběhlo na Twitteru, že už agenti generují účtenky, které vypadají jako pravé, tak bude muset agent i zkoumat, jestli jsou pravý (smích). A na to všecko je krásné mít agenta, který až získá confidence, že ta účtenka je správná, tak to teprve pošle do systému.
Já jsem se právě koukal, co kde už se tak používá, a moc agentů jsem nenašel. Přišlo mi, že se zatím řeší jenom jednoduché úkoly. A tím přicházím k vašemu MCP serveru, který jste nedávno zprovoznili: proč je nutné ten MCP server mít, proč není možné napojit se rovnou na LLM a je potřeba prostředník, který do LLM zprostředkovává data? K čemu je to dobré?
Ono je to tak, že LLMko sedí pod všema chatovýma interfacema a ty mu říkáš, jaký máš intent, to znamená například: jaký bude zítra počasí? A on tam pošle systémový prompt, dneska je čtvrtek, venku je 35 stupňů, a ten agent řekne, super, můj systémový prompt říká, že nevím, jaký je počasí, takže se musím někam podívat. Buď to vyhalucinuje, řekne, že zítra budeme mrznout, nebo řekne, nemám data, potřebuji si nějaké data najít. A k tomu slouží právě ten Model Context Protocol (MCP), což je věc, kterou dal dohromady Anthropic, a vypadá to, že už se neformálně standardizoval, už je k tomu připojený i Google, Microsoft, takže asi všichni ty velký hráči už to budou používat. Samozřejmě některý si trošku tu implementaci dělají po svým, ale ono se to na nějaké implementaci ustaví. A ten Model Context Protocol je vlastně velmi zjednodušeně API obalený popisem. Takže máš API typu předpovídám počasí a napíšeš, když se tě někdo zeptá na to, jaký bude zítra počasí, tak zavolej tady ten nástroj. A takhle vlastně velmi zjednodušeně funguje MCP. Agent řekne, nemám data, podívám se, mám tady nějaké nástroje? Aha, tady zrovna vidím výborný nástroj, který o sobě tvrdí, že umí předpovídat počasí, tak já si ho zavolám. A říká, ptá se mě uživatel – a tam máš ten nástroj popsaný, takže buď je to například nějaké API nebo curl, takže on řekne, aha, musím zavolat curl. Zavolá, řekne dnešní datum a chci vědět, jaký bude zítra počasí. On vrátí nějaký result, a on si to zase rozebere, ten JSON, a řekne, OK, tady jsem našel nástroj, že zítra má být 35 stupňů a že má odpoledne pršet. A vrátí ti to výsledek. Takže vlastně ten jazykový model dekomponuje ten problém, najde si ten správný nástroj, zavolá si ho, protože má ty nástroje typu pythony a všecky tady ty věci už v sobě embedovaný, takže má i command line, spustí si virtuální stanici, zavolá si ten nástroj, zjistí ty výsledky. Když nemá autorizaci, přijde a řekne, nemám autorizaci, neumím. A to je zase něco, kde my dokážeme velmi dobře facilitovat i bezpečnost. Když máš nějaké svoje systémy, on si tě zavolá, řekne, ale já nejsem autorizovaný. A ty řekneš, super, tady zmáčkni tlačítko, autorizuj se a tím budeš autorizovaný k datům přistupovat. A vrátí ti vlastně ten výsledek zase v nějakých datech a zase ta data vezme, ale interpretuje je do lidské řeči, abys nemusel čít JSON.
Ale všechna LLMka mají vlastní API, je tam opravdu potřeba mezikrok ve formě MCP?
Je to vlastně popis APIček pro ta LLMka, pro ty chatovací interfacy. On se na to APIčko musí nějakým způsobem dostat. To znamená jinými slovy, když říkáš, že APIčka stačí, tak ano, APIček je plnej svět, ale ty bys musel říct, prohledej celý svět a najdi mi službu, kde je exponovaný API, který říká předpověď počasí.
Jasně.
A on samozřejmě má limitaci v tom, že neví úplně o všem, má něco nabranýho, nebo má od nějakých velkých hráčů předpřipravený takový ty embedovaný nástroje, že se kouká na Reddit a já nevím na co všecko. Ale vlastně například na tu tvoji službu by se nemusel dostat. A ty řekneš, já jsem nejlepší služba na předpovídání počasí, a tady je MCP server, který o sobě broadcastuje do světa, že je nejlepší předpovídač počasí.
Koukal jsem i na to, kdo už má MCP servery publikované. Například Paypal má MCP server a ukazuje příklad, k čemu jej používat, že si pak obchodník může zadat prompt „vygeneruj mi účtenku“ a ono mu to vygeneruje účtenku. U toho jsem se trošku smál, protože to mi právě přijde jako téměř banální úkol na to, aby to řešilo LMM, ještě přes MCP server a podobně. Přišlo mi, že jsem nenašel příliš moc věcí, u kterých by mi dávalo větší smysl je takhle řešit.
Ano, ale MCP servery teďka vlastně začaly vznikat jak houby po dešti, takže například Atlassian má na Confluence a na Jiře MCP server a myslím, že vlastně každej bude mít MCP server, každej bude mít agenta, takže teď bude obrovská exploze všech těch nástrojů, každý se chtít nějakým způsobem v tom prosadit, aby byl jeho produkt stále relevantní. Uvidíme samozřejmě, jak to bude, protože některý industries se můžou úplně redefinovat. Pokud ti umělá inteligence nebo LMM dokáže něco dělat on the fly, tak vlastně nebudeš potřebovat už některý interfacy. A to, co například my máme v našich MCP, ta přidaná hodnota, to je ta datařina, a ty dneska můžeš říct, zkoreluj mi poslechovost mého pořadu na to, jaký bylo venku počasí. To by byla zajímavá otázka, jestli máš dělat podcasty, když je venku 35 nebo například 15 stupňů nebo jestli prší. A kdybys měl Keboolu, tak on si najde v Keboole tabulku, kde máš kolik bylo lidí přihlášených na různý podcastový platformy a pak řekne, nemám data o počasí. A řekne si, tak kde je vezmu? Hele, tady je nějaké APIčko! A do Kebooly ti vytvoří další tabulku, která se jmenuje počasí. A řekne, no a teďka musím udělat transformaci, tak aby se to celý svázalo, aby tam vypadlo, jestli tam nějaká korelace je, nebo není. Udělá ti tam ten malý statistický machine learning a ty řekneš, ano, to se mi líbí, tak to udělej každý týden. A on řekne, super Keboolo, tady jsou joby, a runuj mi je každý týden. A udělá to a spustí to. Věříme, že tohle je jedna z velkých přidaných hodnot, protože si to buď nabudeš muset naprogramovat sám, nebo si uděláš nějaké makro v Excelu, a nebo si to spustíš nad platformama jako jsme my, kde ti to celý zařídíme, a nebudeš se muset věnovat i všem těm věcem okolo.
Tak ano, tak to by už dávalo smysl, to už není generování účtenky.
Jinak já jsem si někdy v prosinci, kdy jsem měl trošku víc času, spustil agenta nad svým osobním Gmailem. Je to agent v nadneseném slova smyslu, ještě nejsme tam, že bych mu řekl, jsi agent Jirka Maňas a řeš mi e-maily. Tam ještě nejsme, ještě nemám naučenou neuronku, aby byla Jirka Maňas, což je mimo jiné velmi zajímavý i téma, jak to bude používaný v práci. Takže mám tam nějaký rozhodovací strom za pomocí AI a vlastně nečtu e-maily. Mně každej den ráno v 7 přijde do Telegramu soupis, co se mi prohnalo mailboxem. A když mám něco důležitého, a on vyhodnotí, že to je důležité, takže rodina, děti, zdraví, peníze, účtenky, reklamace, pokuty… pošle mi ten Telegram rovnou: hele, přišla ti pokuta, zaplať ji. No a teďka je strašně zajímavý, že když máš tohle, tak se chceš posunou dál. Ale dneska není kam. Já ho chci mít napojenýho na banku. A když se mě zeptá, přišla ti pokuta, chceš ji zaplatit? Ty se zeptáš, jaká? On ti řekne, no tady si blbě zaparkoval. On ti to řekne, protože do toho mailu vidí. A ty řekneš, no jasně, zaplať to. A chceš mít připravený ten platák. Tak to ani náhodou, že by tě banky k tomu pustily. Takže musíš vlít do mailu, kouknout na to PDFko, na QR kód a dodělat to sám. No ale vlastně tam to postupně bude směřovat. Budeš chtít, aby agenti za tebe fungovali a pracovali.
No budu, ale některé věci jsou opravdu citlivé. Jako například peníze. Každý si asi trošku rozmyslí, jestli pustit AI agenta do svého bankovní účtu. Aby se pak člověk časem nedivil.
A k tomu jsou ty guardrails, že ano. Když budeš vědět, že tě ten agent vždycky bude autorizovat. Nebo i banka to může připravit tak, že to bude autorizovat pro tebe, pro toho agenta. Tak vlastně tím získáš i tu důvěru. A vlastně tam bude i zajímavý souběh, kdy budeme mít vedle sebe, právě jak jsem říkal, ty nejlepší AI agenty, co jsou lidi. A ty to be AI agenty. A budou vzájemně kontrolovat jeden druhýho. A budeme vzájemně získávat důvěru, než řekneme, ale ono to asi nějak funguje. Tak pojďme do toho.
Tak něco už bylo k vidění na Google I/O. Ukazovali třeba demo, kde někdo opravoval kolo a ptal se LLMka, jaký má použít klíč. A pak, že mu chybí nějaký šroubek, tak ať AI zavolá do obchodu a zeptá se, jestli ho mají. Agent tam zavolal, řekl, mají ho, a člověk mu řekl, tak mi ho rovnou kup. A bylo to dovedené až do praktického konce, kdy má agent přístup k telefonu, dokáže do obchodu zavolat a zeptat se hlasem – pravděpodobně jiného agenta, spíš než člověka. Takže asi tímto směrem budeme směřovat. Jsem na to zvědavý.
A v obchodě to už vezme jinej agent…
Přesně tak. Tam už asi nebude člověk, ten se bude zabývat fyzickým nošením šroubků. Dokud nebudou roboti. Ale to už jsme s tou křišťálovou koulí zabrousili daleko. Ještě se vrátím k tomu, o čem jsi mluvil: o neuronce jménem Jirka Maňas. To znamená, že očekáváš, že budeme mít nějakou kopii sama sebe, která se naučí naše zvyky a bude fungovat jako náš osobní asistent, pomocníček?
Byl by to asi zcela logický vývoj. A samozřejmě zase je to nějaká crystal ball. Já jsem o tom přesvědčen. Dokonce jsem o tom diskutoval s Padákem, s naším founderem. Říkali jsme si: ty si naučíš doma nějakého Jirku, který ti bude řešit spoustu věcí. Ale nebude to Jirka, který nahradí Jirku. Ty jsi manžel, otec od rodiny a nějak funguješ. Ale vlastně spoustu věcí ti zjednoduší. Já opravdu nechci přepisovat věci z faktur do bankovnictví. To opravdu nechci. To není náplň dne, kterou mám na pořadu dne, ale musím to dělat, protože to nejde zatím jinak zařídit. A ty si ho naučíš, jak funguješ, ideálně ho naučíš svoje hodnoty, svoje chování a buď se to naučí například z tvých mailů nebo se to naučí z nějakých tvých rozhovorů. Je to teda trošku scary, že ano. My jsme byli vychovaní v jiném systému, kdy jsme si dávali pozor, jestli nejsme v místnosti, kde by bylo nějaké odposlouchávací zařízení a tak podobně. Dneska vidíš, že všichni přistupujou na to, že mají zaplý telefony na to, aby si řek Hey, Google, nebo Siri. Máš doma asistenty, který tě částečně furt poslouchají a vlastně říkáš, no tak já mu dám všechny maily, ať se to naučí. A pro svůj komfort snižuješ trošku laťku privacy, takže je to samozřejmě citlivá věc. Ale budeš to mít. No a teď si vezmi toho agenta, tady je agent Jirka Maňas, který pracuje pro nějakou firmu. A v té firmě dodává nějakou hodnotu, protože je tam naučenej. A ty z té firmy například budeš odcházet jinam. Můžeš si s sebou vzít ten svůj model, toho agenta, kterýho tam nasadíš, tu neuronku, nebo nemůžeš? To jsou věci, kterýma se budeme do budoucna muset zaobývat.
No, nebo pak můžeš mít těch agentů víc a různě je firmám pronajímat.
No, tak některý lidi mají víc životů, tak… (smích).
Ale to by možná dávalo smysl, mít agenty, kteří mají moje pracovní schopnosti a můžu je pronajímat víc firmám a pak být jenom doma a kasírovat.
A můžeš mít i duální osobnosti (smích).
To už jsme opravdu daleko. Tak zpátky na zem. Samozřejmě panují obavy z toho, že dat o sobě budeme prozrazovat pořád víc a firmy, které LLMka provozují, je budou nějakým způsobem používat. Myslím, že to jsou dost relevantní obavy a uvidíme, jak se vyřeší. Ale přivádí mě to k otázce závislosti na LLMkách. Nemáš obavu, že si ve firmě všechno zautomatizujeme, budeme pracovat s LLMkama, budeme mít agenty, ale co když si pak firma, která LLM provozuje, něco usmyslí nebo přestane fungovat? Uvažujete o tom, jestli je ta závislost problém a jestli by třeba nestálo za to vytvořit nějaké vlastní LLM?
Tak dneska je několik cest, jsou open source modely… Jenom znovu zopakuju, že open source model je možný nazvat open source, pokud máš přístup k testovacím datům,jinak je to black box. Myslím si, že to je jedna ze správných cest. Nicméně k tý závislosti: je to zajímavá úvaha a my jsme ji diskutovali na teoretický úrovni. Vzhledem k tomu, že vůbec nasazování agentů je v plenkách, tak do tady těch úvah dodriftujeme postupně. Nicméně teďka vyšla studie a já nevím, jestli to byl Harvard, nebo někdo jiný, když tak si to dohledejte, že zkoumali mozky lidí při používání ChatGPT.
To bylo MIT. Harvard vydal podobnou studii dříve, čerstvě se píše o studii MIT.
A tam řekli, že nám u toho mozek trošku degeneruje. A já, když jsem dělal prezentaci, protože se snažím i trošku pushovat do školství, abychom zůstali relevantní a hlavně ta nastupující workforce, aby zůstala relevantní, tak jsem dělal přednášku učitelům o tom, co je AI a trošku jsem to otevřel tím, že já, když jsem byl na základní škole, tak mi paní učitelky říkaly, že budeme blbí, protože budeme používat kalkulačky. A že přece ta práce s těma tabulkama je nenahraditelná. Tak ta doba už je pryč, víme, že kalkulačky nás blbý neudělaly, pak přišly počítače, který nás taky blbý neudělaly. Teď přichází další vlna, která nás zase podle mě bude elevovat o něco dál. A myslím si, že se přizpůsobíme, i když ta změna je obrovsky rychlá. Všechny změny v minulosti trvaly nějakou dobu, teď to opravdu každejch šest měsíců je úplně novej landscape. Mám silné přesvědčení, že my lidi úplně nezblbneme, díky tomu, co jsem viděl, jak se technologie zaváděly. Zajímavé ale je, že například nebudeš chtít už některý činnosti dělat. Teďka byl velký výpadek GCP, kdy tam myslím odešel hlavní autorizační systém a tím pádem přestali fungovat, bylo to velký. A hned se na Twitteru vozývaly výkřiky, no já teďka přece už nechci kódovat, když nemám k tomu toho svýho junior programátora. Je to pro mě neefektivní. Je pro mě efektivnější se teďka podívat na Netflix a počkat, protože pak zase tý práci udělám víc, než kdybych to teďka dělal bez toho asistenta. Takže tady ty výkřiky se začaly objevovat. Ono to spíš bylo, co mám dělat, nemám k tomu AI a neumím si s tím poradit. Doufám, že se to tak nestane, že budeme na tom závislí. A teďka ještě jenom zpátky k tomu, když si to nasadíš ve firmách: každá firma by měla samozřejmě mít, dokonce některý to mají vynucený z regulace, zejména bankovnictví, business continuity procesy. A firma, která je nemá, na tom bude špatně, protože může dojít k výpadku čehokoliv a oni, když o tom nepřemýšlejí, tak pak budou překvapení. Vím, že jsem pracoval v Asii, že jsme řešili ptačí chřipku a byl jsem překvapený, jak velmi dobře jsme začali být připravení na to, že jsme si řekli, že musíme mít procesy na to rozdělit například callcentra napůl, aby když by se dostal virus do jedné části, tak aby se nedostal do druhé. Nějakém způsobem prostě řešíš business continuity. Třeba na letiště bylo zajímavé, když byl před deseti lety velkej výpadek informačních systémů, tak oni mají BCP udělaný na kartičkách. Supervisoři vyběhli, šli za ty lidi, co odbavujou a normálně měli proces a jeli to na kartičkách a celý to odbavili na papíře. To znamená, pokud si postavíš efektivní firmu na agentech, no tak tam musíš mít nějaké fallback procesy případně, a například nebudeš obsluhovat tolik lidí, ale obsloužíš nějakou kritickou masu, to je všecko samozřejmě ve hře. Je to další systém a další komponenta, na kterou musíš myslet.
Začínal jsem tím, že jsem si přečetl, jak se Keboola změnila během pár dní ve firmu řízenou s AI, jak to bylo strašně rychlé a jak ta revoluce byla veliká. Jaká bude Keboola za rok? Bude úplně řízená agenty, budou tam ještě pracovat lidi?
Jak jsem říkal, já doufám, že ano, zejména v těch funkcích, kdy si myslím, že je daleko větší přidaná hodnota, když to děláš v tandemu s umělou inteligencí. Ale doufám, že nahradíme všecky neužitečný činnosti, kterých tam je jako v každý firmě, AI agentama, abychom je nemuseli vykonávat.