Data Talk #150: Ondřej Vaněk (Adastra)
epizoda#150 | vyšlo | délka | 810 poslechů | permalink | mp3
V novém dílu Data Talk si Jirka Vicherek a Hynek Walner povídali s Ondřejem Vaňkem, Chief AI Officerem Adastra Group a CEO Blindspotu. Ondra s námi prošel svou cestu od akademického výzkumu multi-agentních systémů a jejich aplikaci od pirátů v Indickém oceánu k bezpečnostním složkám v Los Angeles a jak se jeho výzkum přetavil k budování businessu Blindspot Solutions a následnou akvizici česko-kanadskou Adastrou. Jaké byly jeho první roky v Adastře a v čem je nadšený do další mise i po aktuální akvizici Adastry samotné skupinou Carlyle? A v čem ho aktuální agentní systémy stále selhávají oproti jeho původnímu výzkumu? O tom všem v aktuálním díle Data Talk.
Strojový přepis
Dobrý den, moje jméno je Jirka Vicherek.
Dobrý den všem, moje jméno je Hinek Wollner. A vítáme vás u dalšího dílu podcastu Datatalk.
Dneska k nám do studia přijel na pozvání Ondra Vaňek, Chief AI Officer Adastra Group a CEO Blindspotu. Ahoj Ondro, vítej!
Dobrý den, díky za pozvání.
Když jsme s Ondrou připravovali plán dnešního natáčení, pracovně jsme epizodu nazvali „Od agentů k agentům“. A v tomto duchu se s Ondrou budeme bavit.
Nejdříve s Ondrou probereme jeho akademickou kariéru, jeho background – vývoj agentů před 15 lety, určitě to bude „before it was cool“.
Ano, zajímavá konfrontace se starým agentním světem. Potom nás Ondra provede Blindspotem a nakonec skončíme v Adastře, abychom to vrátili zpátky k současným agentům a jak moc je Ondra z nich zklamaný, co ještě neumí a co před 15 lety mohly umět.
Tento díl natáčíme těsně po velkém úspěchu Adastry, kdy skupina Karla koupila firmu za částku, kterou dnes zveřejní, ale i tak to bude opravdu pěkné číslo, i když ji neznáme přesně.
Toto je takový aktualizační prvek a doufám, že se k němu ještě vrátíme, protože je to určitě téma roku na datové scéně.
Děkujeme moc, Ondro, že jsi přijal pozvání. Pojďme na to – kde to u tebe všechno začalo?
Kde to začalo? Já si myslím, že jsem relativně brzo věděl, že AI je fascinující. Jako kluk jsem měl rád roboty a sci-fi. Nechtěl jsem se tomu původně věnovat profesionálně, popravdě. Šel jsem na FEL, protože tam se to trochu hýbalo, a navíc to nebyla až tak náročná škola z mého pohledu. Studoval jsem telekomunikace.
Pak mi jednou na bufetu někdo řekl: „Telekomunikace jsou už hotové, všechny antény jsou postavené, to není budoucnost.“
To mě trošku vyděsilo, a tak jsem si říkal, co mě vlastně opravdu baví a zajímá. Zjistil jsem, že se nabízí studijní program technická kybernetika, který jsem původně vůbec neznal.
Zjistil jsem, že součástí je AI a řízení systémů, a vydal jsem se tímto směrem. Mám velkou radost, že tehdy jsem potkal jednoho člověka z telekomunikací a rozhodl se jít studovat doktorát.
Po magisterském studiu jsem se rozhodl, že chci dělat umělou inteligenci. Měl jsem na výběr robotiku, datové vědy nebo přidat se do Agent Technology Group, kterou tehdy vedl Michal Pěchouček. Fascinovalo mě to nejvíc.
Zpětně, když přemýšlím proč, líbilo se mi, že aplikace agentů byla velmi široká a měla sociálně-antropologický rozměr.
Socialita spočívala v tom, že agenti spolu nějak interagují, a algoritmy pro tuto interakci často napodobovaly chování lidí.
Agentní systémy se tak dají použít k modelování celých společností, chování jedinců a emergentních jevů.
Moje disertační téma se týkalo simulací v rámci multiagentních systémů, konkrétně jsem pracoval na modelu námořního 15. finického oceánu, kde jsem si opravdu vyhrál s herně-teoretickými aspekty.
Tady je opravený text s úpravami pro plynulost a stylistickou konzistenci:
Modeloval jsem interakce mezi vlastně kooperativními stranami, kompetitivními stranami a nějakými adversariálními jednotkami. Připadalo mi to hrozně pestré. Díky tomu jsem nakoukl i do některých softových věd z oblasti Computer Science a právě toto mě na tom fascinovalo. Na druhou stranu se pak hodně lidí zabývalo vnitřkem agentů samotných. Kdybych tehdy někam přišel a řekl: „Pojďme namodelovat uvažování agenta tak, že uděláme rovnice s 400 biliony parametrů a ono to bude fungovat,“ všichni by si asi mysleli, že jsem blázen. Tehdy byly neuronové sítě ještě velmi daleko. Vyšel ImageNet, řešilo se hlavně rozpoznávání obrázků – třeba jestli je na obrázku kočka nebo pes. O kterém roce mluvím? Přibližně 15 let zpátky. Já jsem začal studovat v roce 2008, ImageNet vyšel v roce 2007, Google tehdy začal pracovat na neuronových sítích, zvláště v oblasti Computer Vision, ale uvažování bylo ještě daleko.
NLP se tehdy řešilo trochu jinak. Už tam existovaly latentní prostory a podobné koncepty, ale nebylo to propojené a nebylo to tak naškálované. Možná by mě někdo opravil, ale myslím, že deep learning a NLP se spojily až po době, kdy dominovalo computer vision. Uvažování uvnitř agentů se řešilo hodně pomocí znalostních bází, logického uvažování, plánování a podobně. Byla to hrozně pestrá mozaika různých směrů výzkumu, různě ukotvených. A teď to převálcovaly LLM, tedy velké jazykové modely. Uvažuje se, že agentovo uvažování je v současnosti reprezentováno právě LLM. Jsem zvědavý, co se přepoužije z toho vnitřku těch agentů. Na druhou stranu v současnosti ještě nevidíme nasazení významných multimodálních systémů, takže mě to určitě zajímá.
Začal jsi pracovat při studiu? Měl jsi nějaké kšefty, aplikace, nebo jsi byl čistý akademik? Potom doktorát, a tady krásně konflikty s Jedničkovým oceánem, piráty a „já jsem, kdo mě chce“…
Já jsem normálně pracoval při magisterském studiu, programoval jsem jako většina. Docela mě to bolelo, nebyl jsem úplně top, ale myslím, že to šlo – zvlášť protože jsem neměl žádného pilota. Když jsem nastoupil, měl jsem mezistupeň mezi dokončením magistra a nástupem na doktorát, dělal jsem v nějakých firmách. Byl jsem z toho zklamaný – říkal jsem si, že zbytek života budu jen koudit u tabulek v bance nebo integrovat nějaké systémy a že se nebudu věnovat přemýšlení a vědě. Nakonec jsem šel za profesorem Maříkem na fakultě a řekl mu, že přeci jen chci dělat doktorát, ale nevím přesně kde a co, a že nechci být zavřený v laboratorních podmínkách. Profesor mi byl velmi vstřícný a tak jsem si udělal kolečko po různých výzkumných jednom…
Pokud chceš, můžu pokračovat v opravě další části textu nebo ho ještě víc stylisticky vylepšit.
Opravený text:
Pracoval jsem na univerzitě a napsal jsem si grant na společný výzkum s USC, University of Southern California v Los Angeles. Takže jsem vlastně každý rok mohl oficiálně vycestovat na měsíc, ale já jsem si to vždycky prodloužil a dal si to na tři měsíce v Los Angeles, kde jsem dělal výzkum společně se špičkovou laboratoří světového významu. Tam jsem měl takzvaný klasický český impostor syndrom – člověk přijede mezi elitu a postupně zjistí, že tam taky má co přidat. To mě trošku nakoplo, protože jsem nebyl tak sebevědomý, že bych to taky dokázal dělat na nějaké světové úrovni.
Na druhou stranu se mi tam ukázalo, jak je akademický svět uzavřený a relativně dobře strukturovaný. Jsou tady konference v oblasti AI, kam se publikuje, s určitými termíny. I kalendář je tak nějak nastavený, aby se termíny nepřekrývaly. Člověk píše papery, submituje je na konference, buď se podaří dosáhnout úspěchu, nebo ne, a někdy se musí spokojit s méně kvalitními publikacemi. Celý ten proces je dost nalinkovaný – sesbíráš papíry, díky nim získáváš granty a takto stavíš kariéru. Ten svět je hodně strukturovaný a nechci říct, že je to šablonovité, věda je přece jen kreativní, ale systém je velmi přímočarý.
Zjistil jsem, že mi to jako nevyhovuje. Když se pak člověk dívá na aplikace a na ten byznys, nebo když sleduje piráty, kteří fungují v bohatém, chaotickém světě, je zajímavé vidět, jak tam funguje nevědecký akademik. Já jsem například vyrazil do světa – tři měsíce v Los Angeles, měsíc v Sudánu, měsíc v Keni, na Seychelách a Komorských ostrovech, kde jsem měl asi největší zážitek. Tam jsem právě potkal piráty, kteří byli nadšení, že konečně jsou v zajetí na Seychelách – krásném vězení.
Tam člověk narazí na úplně jiný svět, což mě fascinovalo a říkal jsem si, že věda je fajn, ale měl bych mít laboratoř hodně propojenou se světem. Díky tomu, že Los Angeles není daleko od Silicon Valley, potkával jsem tam lidi se startupy, a začal jsem uvažovat, že bych si založil startup. Bylo by zajímavé vydělat nějaké peníze a zároveň validovat, že myšlenky, které píšu v publikacích, mají skutečnou hodnotu. Pro mě bylo založení startupu a to, že je někdo ochotný za tyto myšlenky platit, ultimátním potvrzením jejich hodnoty.
Tímto směrem jsem tedy postupně směřoval.
Co jsi tehdy psal za papíry? Jaká byla tvoje doména? Co jste řešili v LA? Na co jsi se zaměřoval?
Ty papíry byly převážně herně teoretické. Zabýval jsem se konfliktem dvou hráčů, kteří mají odlišné cíle. Když jsou hry obrovské, řešil jsem, jak spočítat takzvané ekvilibrium, tedy optimální řešení.
Zde je opravený text:
Strategii, kterou mám hrát. A já jsem ji aplikoval právě na pirátství, kdy jsou lodi, které… Je to vlastně kočka a myš. Jsou tam nějaká omezení pro plavbu kolem Somálska až do Suezského průplavu. A ten pirát na ní čeká. Akorát to moře je obrovské. Otázka zní, kde ten pirát má čekat a jaká má být tranzitní trajektorie přes tu oblast. A tohle se dá modelovat jako hra. Mám miliardy možností, jak to projet, a samozřejmě miliardy možností, kde stát, nebo jak se pohybovat jako pirát. Tohle se dá abstrahovat do frameworku hry o dvou hráčích. A ta optimální strategie je tzv. Nashovo (smíšené) ekvilibrium – relativně známý koncept, ale spočítat ho ve velkých hrách je výzva.
Takže to byl zase ten akademický aspekt — jak spočítat ty ekvilibria a podobné ekvilibria ve velkých hrách, které často ani nevleze do paměti, nejsou jednoduše reprezentovatelné. To byl můj vědecký přístup. Mě na tom bavilo, že pirát v praxi nezjišťuje Nashovo ekvilibrium ve velké hře, ale prostě vyrazí. Do toho pak padaly myšlenky kolem kognitivního modelování lidí. Hra je totiž matematický koncept, kde se předpokládá, že lidé jsou racionální, což zdaleka neplatí. A když nejsou racionální, otevírá se enormní škála možností, jak modelovat iracionalitu, zaujatost nebo i kognitivní omezení člověka. To je velmi zajímavé a bavilo mě to.
A právě to jsme modelovali i na USI, kde aplikace byla pro protiteroristické operace. Jejich nejznámější aplikace byla v Losangeleském letišti. Vytvořili plánovač, který říkal hlídkám, kdy a jak mají plánovat. Z pohledu teroristy nebo pašeráka drog, který může sedět každý den na letišti, číst si noviny a pozorovat pohyb hlídek – a v určitý den pak zaútočit. Když mám rozvrh, například patroluji v pondělí, středu a pátek, ale v úterý a čtvrtek jindy, jsem předvídatelný. Otázka byla, jak být nepředvídatelný, aby mě protivník nemohl dobře sledovat a využít toho. Jak tedy náhodně plánovat hlídky? Některé lety letí nad Washingtonem, jiné nad Kansasem, což má různou hodnotu pro protivníka i pro mě.
Takže otázka zněla – co je ideální randomizace, tedy znáhodnění? A zarážející je, že ty techniky vedou ke stejným výsledkům, které jsem počítal já – vlastně jde o ekvilibrium, optimální náhodnou strategii v té hře. To byl takový spojovací článek, který jsme zkoumali společně. Pak jsem pracoval v dalších oblastech – díval jsem se na kybernetickou bezpečnost, kde jsme modelovali útočníka, který se chce dostat do sítě. Já kladu nějaké překážky, ale nemohu je dát všude, kam bych chtěl, a útočník to opět může nějak pozorovat a zkusit kde udělat útok.
Takže aplikace byly dost široké. Později jsme vyvíjeli systémy pro patrolování policie v do…
Pokud chcete, mohu také pomoci s dokončením poslední věty.
Zde je opravený text:
Downtown Los Angeles, který také není nejbezpečnější. A zase tam posedávají ty kriminální živly, když to tak řeknu. A když už vidí, že v pondělí tady to auto nejede, tak v pondělí mají pré. Takže vlastně ta randomizace byla něco, čím jsme přispěli. Bylo zajímavé i pro ty policajty, že jsme jim dali do ruky tablet, a pro ně to byla skoro taková hra. Vlastně gamifikace jejich práce. Až je to začalo hrozně bavit. A myslím, že možná větší efekt měl ten engagement. Oni byli do toho skutečně vtažení, viděli teď ta data, co se kde děje. Viděli, jak mají projíždět a že se to dneska mění. A díky tomu byli do toho daleko víc zapojeni. A vlastně ten efekt toho engagementu – že to není ta nudná repetitivní práce – měl potom netriviální dopad.
Bohužel jsme nikdy neměli validaci toho, že to opravdu funguje. Letiště neřeklo, že to funguje, teroristé nezaútočili nebo něco naopak všichni se nechytli. Jednak je to doména bezpečnosti, kde se informace většinou nesdělují veřejně. A zároveň, když tady rok nikdo neunese žádné letadlo, čí je to zásluha, je těžké říct. Těžko to atributovat. To byl jediný prvek, který lidem nepotvrzoval validaci. Na druhou stranu to, že ty lidi ten systém vyloženě chtěli, byli ochotní za něj platit a používali ho s velmi vysokou mírou adopce, bylo super.
Takže to bylo to Los Angeles. Bylo zajímavé, že i v té skupině byli lidé, kteří byli přitahováni reálnému světu. Prakticky paralelně jsme založili startupy, dokončili doktoráty a z výzkumné skupiny v Los Angeles vznikl startup Armorway, který právě komercializoval řešení pro fyzickou bezpečnost, tedy zabezpečení. My jsme zde založili Blindspot Solutions, Blindspot AI – společnost, jejíž původním cílem bylo řešení slepých míst. Chtěli jsme se dívat na kyber-fyzikální problémy, tedy propojit to, co se děje v kyberprostoru – digitální útoky – s fyzickým světem a fyzickými útoky. Protože útočník mohl zaútočit digitálně, nebo přímo fyzicky napadnout infrastrukturu, často šlo o kombinovanou hrozbu. Kombinovaná řešení ale neexistovala a nám přišlo ambiciózní vytvořit komplexní end-to-end digitálně-fyzické zabezpečení přístavů, ropovodů, kde lítají drony, kamery, vše je monitorováno a máme to plně pod kontrolou.
Teď zpětně můžeme říct, že jsme si vzali velké sousto s tímto early stage startupem. Neměli jsme úplně dobře vybudovanou pipeline. Byl to zajímavý projekt. Na cestách kolem Maritime domény jsem potkal pár lidí, kteří říkali: „Jo, to je super, kdybyste měli systém třeba na nelegální rybaření kolem Singapuru, to by bylo skvělé, peníze leží…"
Pokud budete chtít, mohu text upravit stylově, nebo rozdělit do větších odstavců pro lepší přehlednost.
Opravený text:
Bylo to jako peníze ležící na stole. Já říkám: „Tak super, když peníze leží na stole, proč to neuděláte?“ Jenže ony tam úplně neležely a i zpětně, business cycle v oblasti defense security je strašně dlouhý, je to uzavřená doména. My jsme tam vlastně neměli kontakty, takže to bylo zpětně docela naivní, ale byla to hezká myšlenka.
Ještě si myslím, že je důležité zmínit, že jsme to založili ve třech. Já jsem celý doktorát seděl asi tři metry od Štěpána Kopřivy, pracovali jsme na doktorátu paralelně. Štěpán se hodně zabýval bezpilotními letadly a modeloval je pomocí mutačních systémů – jak řešit orchestraci desítek dronů, jak zabránit kolizím, když letí drony v letovém provozu vedle velkých letadel a podobně. Byla to zajímavá aplikace, ale oba jsme rychle zarezonovali s tím, že chceme něco dělat do byznysu.
V tom Blindspotu nás pak podpořil Michal Pechouček, profesor, který vedl ATG, později přeměněné na AIC, AI centrum. Povýšili jsme se od agendních systémů na celou AI oblast. Takže jsme to založili ve třech. Štěpán a já jsme byli spíše hands-on, Michal byl strateg a moc nám pomohl v business developmentu. Měl za sebou zkušenosti z Cognitive Security, Cisco a podobně, super síť kontaktů – kterou má i nadále. Díky tomu jsme získali první kontakty.
Od cyber physical domény jsme se trochu oddalovali a začali hledat, co trh skutečně chce. Nebylo to o pivotu typu „teď vyrobíme x a ukážeme prototyp“, spíše jsme chodili za zákazníky a ptali se, co vlastně chtějí.
Pokud to zařadím v čase – Blindspot Solutions jsme oficiálně založili v roce 2014, ale seděli jsme spolu v kanceláři už někdy v polovině roku 2013, takže zhruba před 10–12 lety.
Chodili jsme po firmách, neměli jsme produkt. Na univerzitě jsme byli zvyklí fungovat projektově – přijde funding, máme záměr a naplňujeme ho. Měli jsme vlastně „statement of work“ a podle toho pracovali.
Myslím, že teprve pak začalo odrůstat to, jak jsme přistupovali k práci s klientem. Klient řekl: „Dobrý, tak já mám ten problém, pomozte mi.“ Sami jsme mu napsali projektový návrh a začali pracovat.
Takto jsme se profilovali jako službová společnost, ale pořád jsme si udržovali tu AI složku. Rozšířili jsme to z herně teoretických konceptů hlavně přes reinforcement learning a pokročilou analytiku. Jak jsme obcházeli klienty a dělali projekty, začali jsme organicky růst.
Ten růst měl dvě vlastnosti. Za prvé jsme vše dělali end-to-end – doručili jsme klientovi, třeba nějaký plánovací m…
Pokud chcete, mohu pokračovat v opravě další části textu.
Opravený text:
Nějaký modul nebo prediktivní model, případně pythonský skript. On si s tím nevěděl rady a možná to někde chvíli pouštěl, ale protože to nemělo dobré uživatelské rozhraní nebo to nebylo integrováno do procesu, tak to selhalo. My jsme proto velmi brzy vytvořili naši value proposition, že to děláme end-to-end. Vlastně jsme uměli dobře programovat a chtěli jsme navrhovat i dobré uživatelské rozhraní, protože pro tyto systémy to není typické, spíše naopak. Vize byla, že ráno přijdu do práce, zmáčknu jedno tlačítko a všechno se samo stane. Jak říkal klient: tady chci mít velké tlačítko, vydělat peníze a každý den ho ráno zmáčknout. Nedošli jsme s tím daleko, ale byla to naše vize. Tím jsme se nějakým způsobem definovali – že jsme byli schopni dotáhnout věci do produkce a od začátku jsme říkali, že to musí mít UI, musí to mít uživatele, být součástí procesu a fungovat 24/7.
Bylo to často hodně náročné, protože integrace a softwarový vývoj převládají a samotné uvedení AI systému do provozu bolí. Velmi brzo člověk uvidí, jak ten model bude fungovat v praxi. Tyto principy jsou univerzální a platí dodnes i do budoucna – firmy jsou velmi nadšené, když jim ukážete skvělou přesnost na offline datech. Pak ale trvá tři čtvrtě roku, než to zaintegrovali do procesu a začne to generovat hodnotu, což vede k frustraci. Navíc tyto integrace stojí mnohem víc, typicky standardní PLC systém stojí pětkrát víc, produkční systém ještě více a u enterprise systémů třeba i dvacetkrát víc. To je podle mě otázka očekávání, kterou pořád musíme řídit a na které jsme se naučili dlouhodobě dbát. To nás přiblížilo ke klientům, začali jsme doručovat řešení do produkce a to nás nějakým způsobem odlišilo od konkurence, myslím že i v globálním měřítku.
Co byli první klienti a případy užití? Přijde mi zajímavá naše value proposition, která je zpětně stále platná, i když tehdy muselo být „na hlavu“, říct: udělejte to, co umíte – tady AI – a zbytek nechte na nějakém integrátorovi, proč byste se měli plácat s JavaScriptem. To byla další linie, která nás definovala. Řada prvních klientů byli startupy. Díky našim kontaktům v Silicon Valley jsme dělali relativně progresivní věci a ty startupy chtěly ty cutting edge technologie. Jak jsme říkali, oni vysílali peníze s nálepkou AI, ale ne vždy ji skutečně měli. My jsme ji tam ale dodávali. Protože jsme měli blízko k produktové složce a zajímala nás i použitelnost, často jsme se integrovali přímo do týmu a některým startupům dokonce vyvíjeli celé produkty. Měli jsme produktové manažery, kteří definovali, jak produkt má vypadat, sbírali zpětnou vazbu z terénu a skutečně měli na starost vývoj těch produktů. To byla další definiční linka.
Tady je opravený text:
Ten „blind spot“ vyrostl na startupech a měl dvě hlavní charakteristiky. Za prvé jsme dělali opravdu cutting-edge věci, ale už jsme se nemuseli zabývat proprietárními technologiemi, jako například složitými integracemi do SAPu. Na druhou stranu bylo tempo velmi rychlé – peníze rychle mizely, takže jsme museli rychle dělat POC (Proof of Concept), nasazovat deset lidí najednou a pak, když peníze došly, zase se rychle zbavovat lidí. Měli jsme tedy nálady jako horská dráha – pořád jsme prožívali euforii, když startup začínal, byli jsme v hektickém módu, ale když financování vysychalo, tak to s námi i s nimi klesalo.
Pro ty startupisty to bylo normální, ale pro nás to znamenalo, že jsme někdy museli více věnovat času business developmentu, jindy zase méně – neustále jsme přepínali své síly. Když nás bylo pár, neměli jsme samostatné oddělení business developmentu, které by budovalo pipeline, ani samostatný vývojářský tým – měli jsme ruce všude. Chvíli jsme kódovali, chvíli se věnovali business developmentu, pak strategii a podobně. Byli jsme prostě všude. Prožívali jsme to euforicko-frustrační období a říkali jsme si, že tohle musíme stabilizovat, že dál to takhle nejde.
Než se k tomu dostaneme, povíte nám něco o klientech? Na co jste hrdí, co jste jim postavili a jak si to máme představit v praxi?
Jedním z větších klientů byl Armorway, kamarádi, kterým jsme pomohli škálovat vývoj. V Los Angeles a Silicon Valley jsou vývojáři několikanásobně dražší, takže s nimi jsme postavili systém pro podporu losangeleské policie. To bylo skvělé. Velmi brzy jsme se dostali k firmě Tivzit. Nevím, kdo Tivzit zná, ale občas mají samolepky ve výtazích – dělají audity, inspekce a kontrolu procesů po celém světě.
U Tivzitu jsme narazili na skvělého člověka, který nás pozval na jejich ústředí v Mnichově, kde jsme prezentovali systém pro nepředvídatelné inspekce a audity. Byl to vlastně produkt původně z hrnintoritického (pravděpodobně „heuristického“ nebo specializovaného) světa. Tam seděl jeden velký chlap, jedl sendvič a říkal: „Mám problém v Číně, nejsme schopni plánovat naše inspekce tam. Potřebujeme, aby systém náhodně vybral inspektory – randomizoval to, což mě ale vůbec nezajímá. Já jim chci říct, co mají dělat jako první.“
Dostali jsme od Tivzitu letenku, protože jsme chtěli jet do Šanghaje a podívat se, jak plánují inspekce v Číně. To byl náš první větší projekt – regulérní analýza s uživateli, definice problému, specifikace, vývoj pilotu a plná integrace do šanghajského Azure. To bylo možná v roce 2016, tehdy z nějakého důvodu zákazník preferoval .NET, přestože jsme ho nikdy moc nepoužívali. Ale nasadili jsme to. Integrace do jejich německo-čínských systémů bylo také výzvou. Ale vlastně systé…
(Tady text končí, takže jsem ho ukončil u daného místa.)
Zde je opravený text:
My jsme nasadili systém, který běží 24/7 od roku 2016. Takže to bylo skvělé, byla to taková validace, že i tady dokážeme firmám doručit řešení na úrovni enterprise. A Tivzit je extrémně konzervativní firma, takže na to jsme byli taky hrdí – vlastně jsme stále.
Třeba pro startupy v oblasti kybernetické bezpečnosti, protože jsme tomu byli velmi blízko. Michal Pechouček se v tom pohyboval, ale o některých věcech nemůžeme mluvit. Vlastně jsme vyvinuli řadu zajímavých algoritmů, máme například italskou firmu DFLabs, která nám dala referenci a patentovala si dva naše algoritmy, takže kluci, co je psali, mají patenty přímo od DFLabs. To bylo super a data, která jsme měli, byla skvělá.
Kyberbezpečnostní data jsou čistá a kompletní, jen zakódovaná, takže člověk vidí různé tokové vzory (flows), ale nevidí dovnitř, a na tom modeluje různé věci, typicky anomálie. Je to jako hledat jehlu v kupce sena, protože zakódovaná stébla vypadají všechna stejně jako jehly. Problém falešných poplachů (false positives) v kyberbezpečnosti je stále velkou výzvou a my jsme na tom pracovali – vyvíjeli jsme algoritmy na detekci a klasifikaci anomálií a pomáhali s orchestrací kyberbezpečnosti napříč různými firmami. Díky tomu jsme získali hluboké znalosti z oblasti kyberbezpečnosti.
Občas jsme si říkali, že bychom to mohli třeba vyspinofovat, ale zároveň jsme byli vystrašení otázkou, kolik firem nás zažalovalo, protože ta data jsme získali díky spolupráci s nimi a byly velmi protektivní. Obor kyberbezpečnosti u nás stále rezonuje, i teď bychom věděli, co tam dělat, ale už je pozdě. V určité fázi jsme si říkali, že přechod na produktovou firmu znamená zabezpečit stabilní příjmy pro 10–20 vývojářů, což by vyžadovalo velkou investiční rundu. Možná jsme si tehdy nevěřili, i když zpětně by nám investoři možná peníze dali, ale ten přechod jsme nikdy neudělali.
Zmínil jsi nějakou stabilizační fázi v tom zábavném chaosu, který jste prožívali? Jo, pravidelně jsme se setkávali a když startup oznámil, že už se vysušuje, tak kluci dostali zprávu, aby zatím pozastavili práci. Vždycky jsme v těchto fázích říkali, že to musíme nějak stabilizovat – nemůžeme prostě pořád jen nafukovat a vyfukovat. Hledali jsme, co dál, a měli jsme před sebou excelový list od Vysíčka, který říkal: „Kluci, jste super, pojďte tohle dělat světově,“ a byl tam plán expanze. Znamenalo to otevřít kanceláře v New Yorku, Londýně, Silicon Valley a na velkou škálu – ale dobře jsme věděli, že kancelář nelze otevřít a rozjet, aniž bychom tam byli.
Rodinné a životní konstelace nám to úplně nedovolovaly, takže jsme přemýšleli, jak to s tou expanzí udělat, jaké máme možnosti. Tou dobou jsme se paralelně bavili s Adastrou, někdy kolem roku 2016–2017, kdy Adastra hledala dobrý AI tým, protože tehdejší ředitel české Adastry Pavel Kysela říkal, že zákazníci skutečně…
Pokud chceš, mohu text dále upravit nebo rozšířit.
Tady je opravený text s úpravou stylistiky, pravopisu a interpunkce pro lepší srozumitelnost:
Těží, my to děláme, ale potřebovali bychom někoho, kdo má fakt už ty zkušenosti, reference, dotahuje to do produkce, a vy to děláte dobře, tak pojďme spartnerovat. My jsme říkali, jo, to je dobrý nápad, ale jednak tady necháme narůst nějaký term sheet a zase Adastra říká: „No a pak, vlastně, když vy získáte nějaké peníze a přesunete se do New Yorku, tak my ztratíme to partnerství.“ Tak jsme se dohodli, že to spojíme dohromady, že oni můžou být investorem i kupcem. Udělali jsme takové šalamounské schéma – nejdřív jsme prodali půlku, a když se potvrdilo, že to partnerství dává smysl, prodali jsme i druhou polovinu. Ten díl byl takto rozfázovaný dohromady.
Na začátku byla nějaká nejistota, jak dobře to bude fungovat, ale pak se ukázalo, že to funguje naprosto skvěle, a tak jsme se plně integrovali. Blindspot brand máme doteď. Myslím si, že tady v Čechách to má ten „flavor“ poctivého, dobrého, starého dobrého AI, takže to děláme pořádně.
Jsem pořád nadšený z našich lidí – jsou skvělí technicky i lidsky, a kultura v Blindspotu je skvělá. Fandíme tomu, že si ty firmy tak dobře rozumí, protože máme podobnou kulturu. Hlavně je tam zaměření na zákazníka, nehrají se žádné politiky, všichni pracují na společném úspěchu.
Rozdíl byl v tom, že my jsme byli hodně blízko sebe jako tým – seděli jsme na židlích společně – zatímco Adastra hodně sedí u zákazníka. My se snažíme to tady pořád udržet, ale asi covid to trochu rozvolnil a zákazníci po světě mají různé požadavky. Nicméně duch Blindspotu pořád nějak rezonuje a držíme si ten styl, že děláme hardcore AI až do produkce. To také znamená někdy si pořádně zamáčknout rukávy a udělat DevOps a deployment robustně a dobře.
Protože jeden-off predictor na nějakém offline datasetu je jako školní projekt. Já to vždycky říkám – je to semestrální práce, kdy člověk dostane dataset a udělá na něm něco. Ale taková práce, která funguje 24/7 na tekoucích datech, která jsou nekompletní, pod nimiž driftuje proces generující ta data, a musí to celé držet pohromadě – to je jiný typ úlohy. To je přesně to, co pořád chceme dělat.
Jak vypadala Adastra, když jste prodali tu půlku? Jak jste ji vnímali tehdy? Začněme tím.
Jo, bylo to sympatické v tom, že oni byli taky hardcore na data. Dělají datové sklady pro všechny velké zákazníky tady, buď přímo vybudovali datový sklad, anebo kolem toho hráli významnou roli. Takže skvěle rozuměli datům a to byla i investiční teze – mají skvělý přístup k datům a jakousi intimitu kolem dat, a my na tom postavíme analytickou vrstvu.
Jak velká byla Adastra tehdy?
Asi 300–400 lidí. Už to pro nás bylo takové – nechci říct enterprise, ale už to byla dost velká firma. Měli popsané procesy, směrnice. Dá se říct, že byla „dog-firmou“.
A vás bylo kolik?
Nás bylo 20–25.
Pokud chceš, mohu text ještě více zestručnit nebo upravit do jiného stylu.
Zde je opravený text s úpravou gramatiky, interpunkce, stylistiky a srozumitelnosti:
Něco takového. A furt jsme byli vlastně jako nadšení kluci z garáže. Měli jsme už ofisy, seděli jsme s právnickou firmou, což byl kontrast – prošli jsme kolem bossů v kraťasech, kolem těch navoněných právníků, a ta strana byla tak navoněná, ale pořád to mělo systém, strukturu, hierarchii, organizaci. My jsme byli úplně flat, já se Štěpánem a pak tým nebo týmy. Takže to pro nás bylo něco, co si sedalo.
Na druhou stranu musím říct, že právě Pavel tehdy, Pavel Kysela, tomu dal skvělý průchod. Nic moc netlačil, sjednotili jsme finance, což bylo potřeba, abychom měli stejný pohled na svět. Co se týče spolupráce a procesů, tak to si sedalo pozvolna a ukázalo se, že je zajímavé, že právě Blindspoty, když začaly získávat větší velikost a strukturu, tak už dělat ten punk v nějaké velikosti vytváří chaos a frustraci. Lidi mají rádi pořádek, a to si myslím, že Adastra v tomhle je…
Nevím, jestli unikátní, ale její vlastností je, že nevytváří víc struktur než je potřeba, ale ty potřebné vytvoří pořádně. A teďka už si to sedlo úplně.
Jaká je teď teda struktura? Blindspot je vlastněný Adastrou úplně a my zastáváme Blindspot jako českou divizi, resp. AI praktis. Formálně mám pořád CEO Blindspotů, těch entit, a v rámci Adastry jsem VP of praktis, takže mám odpovědnost za praktis.
Rozdíl je v tom, že před pár lety se majitelé rozhodli Adastru víc konsolidovat, což je možná zajímavý příběh – nemá smysl to tady rozebírat, možná přijde někdo z Adastry na podcast kolem dat, a pak o tom můžeme mluvit víc.
Adastra působí v Čechách, na Slovensku, v Německu, Kanadě, USA a má tam entity. Filozofií Adastry je relativní autonomie a nezávislost regionů, takže jednotlivé jednotky fungovaly relativně nezávisle. V nějaké fázi to začalo překážet, což je zajímavé pozorovat zpětně.
Překáželo to zákazníkům – pracovali jsme například pro Magnu v Čechách, kde slavně propadli do Magny Kanada. Ta optimalizovala svoje procesy a v Kanadě to dostala do ruky Adastra. Říkali nám: „Kluci, co tady posíláte? Já bych vám k tomu dal feedback, ale už je to poslané.“ Zákazník byl zmatený – říkal: „Vy nabízíte řešení tady v Evropě, ale proč mi ho nenabízíte v USA?“ Díky nezávislosti regionů zákazníci začali vynucovat, aby byla Adastra jako jedna skutečná firma a skutečně působila globálně. To byl zajímavý aspekt.
Druhým aspektem byl partnership s hyper-scalery jako Microsoft, AWS a podobně, tak oni nechtěl…
Pokud chceš, mohu pokračovat s dalším opravením nebo pomoci s jiným textem.
Zde je opravený text:
Chtěli jsme manéžovat každou zemi zvlášť, ale nakonec to byla zase jedna firma, jeden přístup. Takže vlastně pak volali taky, například AWS má tento model – neumí operovat s jednotlivými entitami, nebo by to možná jinak uměl – ale bylo lepší mít partnerství na globální úrovni. Člověk si tak přitahuje různé incentivní programy, kredity a podobně. Proto to volání po globalizaci vlastně byla manifestace toho, že Adastra je opravdu globální firma. Obsahujeme globální zákaznickou bázi, máme globální partnerství a musíme se stát skutečně globální Adastrou.
Majitelé pak řekli: „Jo, pojďme to sloučit, udělat to jako koncept One Adastra, více se sjednotit, vytvořit leadership, nějakou skupinu, která bude relativně lean, ale abychom se mohli fakt dobře synchronizovat.“ Udělali jsme reshuffle – Pavel Kysela, který vedl Čechy, respektive tým trenérů, a ten, kdo vedl Kanadu, se posunuli na úroveň skupiny. Vytvořili leadership na úrovni skupiny. Štěpán Kopřiva z Blindspotu převzal pozici ředitele Adastra Čechy.
Největší volání po globalizaci zaznělo právě v oblasti AI. Blindspot byl vytvořen jako podhoubí offeringů a maturit, a právě Adastra AI týmy v Německu a Kanadě to úplně nezvládaly. Oni dělali Data Science a AI, často vytvořili ten kus práce, ale neměli to pokryté end-to-end. A Blindspot volal: „My to máme.“
Když říkali „end to end“, byla to spíš otázka MLOps – produktivizace samotného modelu, nebo skutečné end-to-end – tedy front-end integrace do jejich systémů? Myslím, že naše pojetí je skutečné end-to-end. Někdy je to jen MLOps, protože model nemá dopad na klientskou část, ale my jdeme dál, protože vycházíme z potřeb klienta. Občas přijdeme s modelem, který končí na back-endu – predikuje a posílá data do reportingů, ale častěji definujeme potřeby na úrovni celého procesu. Například logistika teď potřebuje autonomní plánování, které není možné dělat jen v SAPu – když se tam něco zaintegrovalo. Potřebuje skutečně samostatný systém.
Takže je to spíš o přemýšlení o reálných potřebách klienta a byznysu. Všichni to chtěli rozšířit dál. V rámci reorganizace jsme vytvořili globální AI praxi a rastr AI, kterou jsem si vzal já jako Chief AI Officer. Sjednotili jsme týmy z Kanady, Německa, Čech, Slovenska a také globální delivery týmy, které Adastra má v Bulharsku, Thajsku a nyní expanduje do dalších offshoreových zemí. Takže to byl jakýsi pilotní koncept, jak opravdu fungovat jako pravá globální AI practice.
Pokud chcete, mohu vám pomoci i s další úpravou nebo stylizací textu.
Jasně, tady je opravený text s lepší srozumitelností a pravopisnými opravami:
Ještě k té integraci a tomu Blind Spotu – chápu, že Blind Spot je česká AI Arastra, jako kdyby… Nebo například řeknu příklad: za prvé si můžu koupit Blind Spot napřímo, bez ostatní Arastry, asi přes Arastru. A za druhé, když mě přijmou, jdu dělat pro AI Arastru, dělám Arastru, dělám Blind Spot – je v tom rozdíl? Jo, prakticky už v tom rozdíl není.
My jsme ten Blind Spot vlastně padli strukturálně jako taková praxe, což znamená nějaká samostatná jednotka, která má na starosti svoje revenue a profit a funguje uvnitř Arastry. Ale je to relativně samostatná divize, ovšem veškerý backend je Arastrý – office, back office, finance, HR do velké míry, IT, všechno je napojené. Takže backend je Arasterní, frontend je úplně frontend, že jo, ten brand je Blind Spot a mezi tím se to prolíná.
Třeba i zákazník, když je velký enterprise, tak říkáme, že je lepší uzavřít smlouvu s Arastrou. Tam jsou totiž všechny ISALy, certifikace, audity – a to propadá i na Blind Spot. Proč byste uzavírali smlouvu s malou firmou? Pro velké firmy je lepší smlouva s velkou firmou. Pro nás je to karta, kterou můžeme hrát: někdo chce fakt malý butik – a tomu slouží Blind Spot, anebo někdo chce zázemí velké firmy – a tam je Arastra.
Ale pořád jsou to jedny a ty samé lidi, není to druhá AI pro Arastru nebo něco takového. Je to pod námi. A z pohledu zaměstnání taky – lidé říkají, že jdou do Blind Spotu, ale de facto sedí v Arastry officech, používají Arastrý systémy, jako fakturace a podobně. Smlouvy máme sjednocené, všechno už funguje dohromady.
Takže já to beru jako výhodu – člověk je součástí dobře definovaného celku. Blind Spot nějakým způsobem je takový celek, i když kultura se výrazně od Arastry nelíší a člověk se pořád identifikuje: „Jo, tady je ta AI firma.“ Na druhou stranu má stabilní zázemí – Arastra dělá super party, volejbal, grilovačky, novoroční akce a Blind Spot taky občas něco udělá.
Takže po těch team buildingových aktivitách máme vlastně dvakrát tolik party. Nechali jsme si Blind Spot, abychom mohli dělat dvakrát tolik party.
Přesně, podle názvu.
Ondro, chtěl jsi možná ještě popsat, jak se to pro vás změnilo byznysově – jaké projekty, jak se změnil trh, klienti. Popisoval jsi, jak se tým integroval, jak jste přesidlovali, jak děláte party, ale co ta byznysová stránka?
Jasně, jasně. Party jsou důležitý, samozřejmě taky klienti. To partnerství s Arastrou umožnilo, že jsme mohli nabízet opravdu true end-to-end řešení. Nejenom ten celostandardní systém, ale nejvíc jsme se zaměřili na digitální transformaci jako takovou, která právě začíná u těch dat.
Pokud chceš, můžu pomoci i s případnou další úpravou či rozšířením.
Tady je opravená verze textu s úpravou gramatiky, stylistiky a srozumitelnosti:
A tam to nikdy nekončí, což právě je ta value proposition Arastry. My jsme na to napojili umělou inteligenci, což mi přijde jako super, protože klient získá opravdu partnera, který mu vyřeší cokoliv, co je potřeba v rámci digitalizačního řetězce. Ať už jde o konsolidaci dat, modernizaci infrastruktury, migraci do cloudů, nastavení cloudových infrastruktur, a pak teprve přejdeme k reportingové vrstvě, analytické vrstvě, autonomní vrstvě až po současné agentické platformy. K tomu má Arastra velmi silný softwareový vývoj, mobilní aplikace, kreativní tým a digitální marketing. Takže Arastra opravdu působí jako partner, který zákazníka provede celou cestou, a není tam nic, co by bylo „to už neděláme“ z pohledu digitální transformace. To je ta naše value proposition, která nám umožňuje…
nabízet AI přesně v kontextu potřeb té konkrétní firmy. Rozšířili jsme nabídku tak, že partnership, který nabízíme, například v oblasti AI transformace, děláme kompletně. V současnosti rezonuje téma AI ready dat. A na to je Adastra skvěle postavená, protože když Gartner propaguje koncept AI ready dat a všichni CIO a CTO se ptají, co to vlastně znamená, my to už dávno víme. Je to pojmenování práce, kterou děláme už dlouho. Funguje zde spojení datových týmů, AI týmů, analytických a infrastrukturních týmů, kteří zákazníka provedou vším, co je potřeba v oblasti AI ready dat. To je na tom unikátní — ne děláme úplně všechno, ale v oblasti dat a digitální transformace jsme skutečně hlubokým end-to-end partnerem.
To je tedy propozice Arastry. Jak se změnil váš byznys? Předpokládám, že jste získali další globální klienty.
Přesně tak, byznys se změnil. Pro Blindspot (malou firmu) bylo velmi těžké prorazit například do Bank of Montreal, protože vendor proces trvá měsíce a proč by si Bank of Montreal onboardovala celý dvacetinový tým? Partnerství s Arastrou nám umožnilo přístup ke klientům. Nejprve k těm českým — telekomunikační společnosti, pojišťovny, banky — kde působili i account manažeři, kteří nás tam vzali, dobře znali zákazníka, a tak jsme začali společně přemýšlet, co podnikneme a kde aplikujeme AI. Tímto jsme si otevřeli dveře. Business development nebyl zadarmo, ale dveře byly otevřené. Mohli jsme začít spolupracovat na velkých účtech s Arastrou, která měla silný brand. To byla pro nás velká změna. Po integraci globální Arastry se zase otevřely možnosti i na globální úrovni a nyní jednáme například s největšími kanadskými a americkými bankami. I když bankovní oblast tvoří relativně malou část našeho obratu, zde jsou velmi zajímavé…
Pokud chcete, můžu pokračovat v opravě i další části textu, stačí říct.
Zde je opravený a plynulejší text:
Zajímavé firmy, ať už z retailu, energetiky, nebo technologické firmy, které na českém trhu možná nemají tolik prostoru, protože český trh je malý. Mě na tom baví to sjednocení, že náš AI tým je volán po celém světě – od východní Asie po západní Kanadu – na různé projekty s různými zákazníky. A myslím, že to naše lidi hodně baví, že mají možnost nahlédnout do mnoha domén. Když nastoupíte do produktových firem, často řeší jeden produkt, jeden technologický stack a dodávají ho do určité vertikály. Ale u nás se lidé za několik let podívají do retailu, telekomunikací, energetiky, možná i do tech, zemědělství, zdravotnictví a life sciences, což jsou taky velké oblasti. Je skvělé, že člověk načichne k různým doménám a často tam řeší třeba anomaly detection nebo jiné výřezy úloh napříč doménami.
Teď k mé otázce: Říkáš, že jste mohli prodávat AI velkým společnostem, ale pořád se bavíme o letech 2018, 2019, tedy před érou chat GPT. Ten trh vypadal úplně jinak. I když jste byli Adastra, měli jste otevřené dveře. Co jste tehdy prodávali? Jaká byla technologická propovice, jaký byl váš stack, co jste dělali jako „baťa cvičky“, co bylo cutting edge tehdy i nyní? Co bylo v letech 2018–2020 považováno za cutting edge?
Adastra tehdy u svých business a technologických offeringů více rezonovala s klienty skrze business nabídky, například Next Generation Fraud Management. Měli jsme tu pravidlovou vrstvu od Adastry ze zhruba roku 2010, která byla postupně vyvíjena. My jsme nad ní přidali machine learningovou vrstvu, která dělala klasifikaci fraudů, obohacovala právě ten rule-based systém a umožňovala mu autonomně se zdokonalovat, ladit parametry a doplňovat jej. K tomu jsme přidali vrstvu Anomaly Detection, která odhalovala zero-day fraudy, jež vznikaly díky neustálé změně business modelů. To byl jeden z příkladů našich nabídek, kdy jsme byli schopni jít po konkrétních obchodních případech a propojovat je s technologickým řešením. Často šlo o machine learning, ať už supervised nebo unsupervised, jak se tenkrát ještě říkalo.
Dělali jsme také dost NLP – zpracování textu. V té době už se například vyčítaly noty z dokumentů a měli jsme i čtečky, například extraktory dat z občanských průkazů a podobných dokumentů, které byly jemně laděné na české občanky a řidičáky. Tyto služby používala řada firem a byly velmi blízko produktům – vlastně jsme to nabízeli skoro jako SaaS. Ten produktový duch v nás zůstal dosud a stále máme řadu řešení.
Pokud skočím dopředu, pak pro nás velmi zásadní je OptiSuite – optimalizační platforma, která umožňuje modelovat prakticky jakýkoliv optimalizační problém, ať už jde o logistiku, rozvrhování kamionů…
Pokud chceš, mohu pokračovat v opravě i dalších částí textu.
Opravený text:
Ať už je to skladovnictví, rozvrhování výroby, plánování výroby na horizontu 10 let nebo jednohodinové plánování, ať už je to plánování lidí na směny a podobně, platforma je vlastně velmi zajímavá. My jsme ji vyvinuli, první engagement byl s firmou Krokodíl, rozvozcem baget, který právě čelil výzvě plánovat rozvážení baget. Když jsme to řešení vyvinuli, fungovalo opravdu dobře, byli jsme z toho nadšení. Umožnilo jim také velmi rychle dělat analýzy, například expanzi do další země – modelovali si, kde by měly být sklady, zákazníci, kolik kamionů potřebují a jak je v čase nakupovat, pokud by poptávka rostla.
Systém v jádru obsahoval optimalizační algoritmus. Uvědomili jsme si, že to je zajímavá nika, kterou tady moc nikdo nedělá. Podobně to bylo i s plánováním inspekcí – rozvrhování inspektorů, komu kam přiřadit cesty. Bylo zajímavé, že inspektoři tvoří týmy, což je víceméně výběrový problém. Pokud znáte výběrový problém, ten je relativně přímočarý, ale když je potřeba na místě vytvořit tým s různými znalostmi, kdy někdo má dvě „mende“ a někdo čtyři, a pak se tým rozjíždí, jedná se o multi-agent výběrový problém, který sice není ve výpočetní náročnosti zásadně náročnější než ten klasický, ale komplexita tam výrazně roste. I to jsme si dokázali, myslím, obstojně vyřešit. Toto know-how jsme pak mohli zaintegrovat do naší optimalizační platformy.
V současnosti je hlavní proud našich optimalizačních projektů poměrně stabilní a líbí se nám, že to můžeme nabídnout velkým zákazníkům, jako jsou Škodovka, Magnus (který jsem už zmiňoval), Hyundai, Bednar, Agro a Agrostroj. Tedy i v Čechách máme skvělé zákazníky, kteří používají naši optimalizační platformu. Na tom se mi líbí, že to know-how je velmi hluboké a platforma je fakt robustní.
Co se týče benchmarků, soutěžíme s nejmodernějšími systémy, jako jsou IBM, Gurobi a podobně. Máme trochu odlišný filozofický přístup k optimalizaci, ale co do škály řešených problémů dokážeme pracovat se stejně velkými nebo dokonce většími úlohami. Jsme flexibilnější v tom, co můžeme namodelovat z hlediska byznysových omezení, kriteriálních funkcí a podobně. Nejsem omezený tím, zda se jedná o lineární programování, mixed integer programování, kvadratické programování – naše platforma to pokryje celé. To je skvělé a vyhráváme s tím oproti zavedeným systémům pro plánování a optimalizaci.
Samozřejmě jsme provedli integraci na IRP, IRP systémy a SAP, abychom z nich brali data, a klientům tak mohli nabídnout kompletní end-to-end řešení pro plánování logistiky. Díky tomu se odemkne další přidaná hodnota, když si zákazník nechá zoptimalizovat inbound, warehousing a manufacturing.
Tady je opravená a trochu uhlazená verze textu:
Dejme tomu odpady, že opravdu celou tu pipeline, distribuci, a k tomu se přidá ještě forecasting dopředu. Za mě to byla ultimátní vize – propojit pohled dopředu, predikční machine learningovou složku, porozumění tomu světu při modelování a vytvoření systému, který v tom najde optimální řešení, tedy optimalizaci. Navíc k tomu přidat další přidanou hodnotu, když si zákazník nechá zoptimalizovat inbound, warehousing a manufacturing.
Pro mě tedy byla ta ultimátní vize propojit ten pohled dopředu, machine learningovou predikci, porozumění prostředí a modelování a vytvořit systém, který najde optimální řešení. To byla naše vize – propojovat to dohromady.
Možná jsem se trochu odchýlil od nabídky služeb? Jo, přiznávám, trochu jsem se víc věnoval dalšímu offeringu za mě. Ale ptám se, jestli jste byli od začátku cloudoví, jak se vám měnila technologie pod rukama? AI v roce 2015 je něco úplně jiného než v roce 2020, a to jsem ještě před příchodem ChatGPT a generativní AI vlny.
Jasně, frontend jsme nasadili v JavaFX – to nevím, jestli ještě někde funguje. Normálně teď jde frontend dělat přes nějaký CSS, kámo to používal CSSK. Relativně brzo jsme díky startupům popadli cloud. Startupy v Silicon Valley rostly rychle, každý byl na AWS. Azure v té době zaspával a AWS byla dominantní platforma v Americe.
Naučili jsme se na to velmi rychle, zvykli jsme si na pohodlí cloudu. A co je nejlepší – ty náklady jsme neplatili my, ale zákazník. Ten měl svůj tým, který vyjednával a optimalizoval náklady, a my jsme mohli rychle deployovat. Pohodlí cloudu jsme tedy pochopili brzy.
Na druhou stranu, on-prem stále zůstává relevantní pro určitou skupinu případů, i dnes. Když se podívám na velkou datovou analytiku, některé věci jsme dělali on-prem, i když byly abstrahovány v knihovnách. Ale velké a náročné joby – třeba spárkové (Spark) – to už bylo vše na AWS a Azure, žádné velké on-prem Teradata jsme neřešili.
Co se týká LLM, tam se to posunulo ještě dál – potřeba mít data a nasazení v cloudu je ještě vyšší. Umíme dělat i on-prem LLM, ale nasazení velkého měřítka je náročné. Někteří zákazníci to chtěli, ale neviděli jsme, že by si to někdo skutečně vyhrál.
Myslím, že když přišly nabídky on-prem LLM, bylo to fajn je jednou nasadit, ale co dál tři roky dělat s údržbou, updaty, refine tuningem a dalšími věcmi? To je obrovské peklo. Takže jsem zvědavý, jak se bude vyvíjet potřeba cloudu v této oblasti.
Pokud chceš, mohu ti pomoci s další úpravou nebo zestručněním.
Jistě, tady je opravený text:
Už to ještě víc posune dál. A zase je to jako ten tailwind pro Arastru, že jo, prostě ta společnost, která přesouvá data do cloudu, buduje cloudové infrastruktury. To je super pro pozice, protože my říkáme, že kdo chce dělat AI ve velkém měřítku, musí nyní pracovat v cloudu. Arastra vám v tom buď pomůže, nebo vám pomáhá už dlouho, tak pojďme v tom pokračovat dál. No a to už se přesouváme k agentům, takže ještě jedna vzpomínka. Co pro tebe znamenalo, když vyšlo ChatGPT? Říkal jsi, že jste dělali NLP, tak asi GPT-2. S ní jste si hráli, nebo ji dokonce někde měli, ale najednou tu byl ChatGPT a svět se změnil pro lidi, co chtějí AI skutečně využívat.
Já si myslím, že jsme neměli tak hladký deployment modelů před GPT 3.5. GPT-2, pak nějaký Gofer a podobné modely – s tím jsme si hráli a něco zkoušeli produktizovat, že jsme na nich postavili nějaké řešení. Ale než jsme to stačili dostat do praxe, vyšla půlka GPT-3 a mě osobně ten skok velmi překvapil. Řada lidí říkala, že to byla jasná evoluce, ale jak to v uvozovkách drželo moč – předchozí verze rychle divergovaly, nedokázaly napsat odstavec, druhá generace „halucinovala“ a třetí se rozpadala. Ale GPT-3 už dokázala vést konverzaci opravdu koukatelně a pak ta „půlka“ (GPT-3.5) tomu dala ten poslední hřebík. To pro mě bylo překvapení a bylo jasné, že to bude nový tah v teorii systémů, jak tomu říkáte – teď se firmy zafokusovaly právě na tento směr. Samozřejmě, mám tu metaforu se super kladívkem – najednou je všechno hřebík, tak se optimalizuje pomocí LLM modelů. Ale reasoning tam pořád zůstává chabý, nemají dostatečný grounding.
Z pohledu skutečného „reasoningu“ tedy má smysl používat jiné modely. Pokud jde o klasifikaci, predikci či strukturovaná data, tedy všechny metody, které jsou vysvětlitelné a předvídatelné, kde víme, jak je trénovat a jak budou fungovat, tak ty zůstávají velmi relevantní, ale fokus se posunul jinam. Firmy i my jsme se nakonec refokusovali na nové typy problémů, které lze řešit právě pomocí LLM. Právě tyto velké jazykové modely umožnily přístup k nestrukturovaným datům. Vždy to byl problém – jak vytáhnout strukturovaná data z nestrukturovaných dokumentů, přičemž se často ztrácel kontext. A teď tyto věci dokážeme přivést do LLM.
Za poslední dva roky se tam vyvinuly různé vzory použití. Ty první engagementy byly často triviální – analyzovat sentiment, odesílat nějaká data, číst dokumenty, sumarizovat atd.
Podstatným krokem bylo dát uživatelům do ruky nástroje. Pak přišla první vlna zklamání, protože hodnota editace byla nízká. Některé případy samozřejmě fungují, ušetříme čas, napíšeme e-mail. Za mě má toto použití pro osobní účely stále nízkou hodnotu…
Pokud chceš, můžu pokračovat nebo upravit i další část.
Otu. Je to must-have, nebudeme si zastírat, že nepotřebujeme GPT nebo LLM. Pojďme to používat na týdenní bázi, ať to není ta transformativní síla, kterou to má. Tu transformativní sílu já odemknu až tehdy, když to opravdu pustím na ta nestrukturovaná data. Zase nebudu to používat na to, že do toho dám směrnice a ono to říká zaměstnancům, kdy mají kolik dnů dovolených. Znovu najděte své use case, ale nemá to tu edit hodnotu. Kde to má obrovskou edit hodnotu, jsou ty expertnější systémy. KWS, obrovská agrární firma v Německu, prohledává patenty, jestli tady nebyla nějaká genová sekvence patentovaná, protože tím řídí research. Mají na to spoustu odborníků a je to strašně náročné. Takže mít LLM, který velmi rychle označí „tady už je tohle hotovo“ nebo „nevypadá nic příbuzného“, je pro ty experty strašně efektivní. A jenom to zorientování v té expertní znalosti pomáhá hrozně moc.
Samkonzul, česká projekční firma, když dělají projekt – třeba staví domeček – tak čtou vyhlášky: státní, regionální, dané obce, hydro, geopodloží, laviny, co tam řeší. A tak to prostě nasypou do toho LLM a pak se ptají: „Můžu tady postavit tohle? Jsou tady ty rozměry v pořádku?“ Ono jim prostě vytáhne, co potřebují, pomocí toho RAG (retrieval-augmented generation) a zvaliduje to. A jim se to líbilo natolik, že generují propoužly (či jiné typy dokumentace), která má taky stovky stran. Pro toho člověka na druhé straně je to také náročné, tak mu to obalí tím LLM a říkají: „Tady je dokumentace, můžeš se zeptat, co je pro tebe relevantní,“ ať už jsou to schvalovatelé, geohydro a podobně.
To se mi velmi líbilo, že prostě vystavili ven svůj nástroj, který používali uvnitř, a pak ho s tím obalili a dali ven. To je skvělé.
Měli jsme různě úspěšná nasazení v oblasti education, terapie, zdravotnictví. Tím, že je to na hraně evropského E-Actu, těch high-risk systémů, tak tam jsou náklady pochopitelně výrazně vyšší. Ty systémy ale dávají smysl, fungují, jen je potřeba potvrzení, že dělají to, co mají. To evaluování LLM je strašně těžké, vlastně vytvořit evaluační dataset v otevřeném světě nestrukturovaných dat je složité.
Takže tam je nějaká chybovost, a v těch citlivých doménách je potřeba tu chybovost softově managovat. Když se ale dva terapeuti či dva doktoři neshodnou na tom, jaká by měla být správná odpověď, je to ještě komplikovanější. Zákazníci tam musejí být trpěliví, protože než se to skutečně vyladí, zabere to hodně času a frustrace.
Problém je, že když si to zákazník zkusí poprvé s GPT-4, funguje to docela dobře, pokud má dobrý prompt, který definuje potřeby terapeuta či daného oboru. Ale udělat to například metodicky podle nějaké specifické metodiky pro daný use case, třeba ohledně výchovy dětí, je velmi těžké.
Tady je opravený text s lepší gramatikou, interpunkcí a celkovou plynulostí:
A tam je podle mě zase důležitý ten expectations management, jako vždycky, protože prostě ty těžký high value věci prostě trvají a stojí peníze. Tak to platí pořád. Já se těším na ty další verze, ale pořád jsem nešťastný z jejich reasoningu. Myslím si, že ten reasoning už se blíží tomu, jak přemýšlí někteří lidé; že řada lidí takhle přemýšlí, jako přemýšlí LLM – že vlastně nejsou grounded ve faktech, nejsou grounded v analýze, nejsou grounded v logické dedukci.
Takže někomu ten reasoning přijde v pohodě, třeba když si plánuje dovolenou, a když tam udělá chybu nebo něco ne zahrne, tak je to vlastně jedno. Ale pro ty businessové procesní domény nebo takové ty “hard” domény, kde potřebuju pevné rozhodnutí, které musí být grounded v realitě a ve faktech a dedukci, tak to je bída. A já jsem měl za to, že bude potřeba ještě jeden revoluční skok v těch LLM-kách – sloučit LLM s nějakým planningem a reasoning systémem. Případně, myslím, Jan Lekun říká, že to potřebuje mít world model, protože současné LLM ten world model nemají.
I kdyby ten world model měly, nevím, jak by nad tím dělaly reasoning pomocí statistické inference jako dalšího slova. Tam podle mě musí být prostě jiná technologie na tu dedukci. Ty agenti to otvírají, že jo – agenti to řeší tím toolingem, že například: “Aha, tady potřebuji naplánovat logistiku, tak to nebudu řešit pomocí NLP technologií, ale zavolám si důležitý reasoner typu solver mixed-integer program.” Takže tooling vlastně podepře tu statistickou inferenci slovní nějakými rigorózními nástroji, což Marvin Minsky zmiňoval v knize Society of Mind, myslím.
On tam říká, že máme v hlavě spoustu agentů, kteří běhají a každý je dobrý na něco, a my mezi nimi přepínáme, oni spolu interagují. A vlastně ten svět vyrátíme směrem, že takhle by mohl zefektivnit ten chabý (nebo předstíraný) reasoning LLM, který může být podpořen toolingem. Takže to může být endgame, ale ta skutečná inteligence… Kdo ví, jak to děláme v hlavě? Mám pocit, že přemýšlím spontánně, ale zároveň musím přepnout do racionálního modu, tedy si třeba napsat rovnici na papír.
Já tam trochu slyším, že máš vysoké nároky na lidský druh, že prý to máme ještě naopak. Podle mě plazí mozek něco vyhodí jako emoci a racionální systém dva se fakt snaží držet nějaký worldview, ať je to jakkoli možné. A taky je tam modulace těmi emocemi, což je ta kognitivní část, a máme omezený výpočetní výkon, protože je to energeticky náročné – nedokážeme si prostě postavit elektrárnu a připojit ji na mozek. Proto máme spoustu zkratek, které jsou pro rychlé rozhodování a mají své biasy z našich zkušeností. Ty emoce nejsou podle mě úplně ideální pro reasoning. Pro někoho je to ale naopak – řídí se emocemi, berou to jako správnou cestu.
Pokud chceš, můžu pomoci i s úpravou stylu nebo zkrácením textu.
Tady je opravený text s jasnější větou, interpunkcí a stylistikou:
To je ještě taky takový dilema, že možná ti technický lidi mají špatný ty biasy, já nevím, jo. Myslím, že uvidíme velmi rychle, a trochu mi něco říká, že se vrátíme k emocím. V tom smyslu, že GPT a reasoning modely vždycky porazíme v racionalitě a plánování, tam nám ale zvoní hrana. Každopádně, tak po patnácti letech se agenti stali největším tématem v IT a technologiích. Máme tady agentní systémy, můžeš nás provést tím, jestli jsou to ty samé agentní systémy, jaké principy platí, které jsou úplně mimo, nebo jestli je to jen stejná nálepka na něčem úplně jiném.
A z té slíbené budoucnosti, kterou jsme si před patnácti lety slibovali, zatím moc nemáme. Zmínil jsi reasoning jako velký problém, je tam ještě něco dalšího? Jaké další slepé místo současní agenti mají?
No, co se týče současných agentů, tak jsem si trochu připravil hrací pole na začátek. Jednak je to ten reasoning uvnitř agenta, který před 15–20 lety byl úplně jiný. To je jeden velký rozdíl, a jak jsem zmiňoval, doufám pořád, že se dostaneme ke konvergenci a konsolidaci různých přístupů, protože pro mě ten slovně-statistický přístup není optimální. To je jeden rozdíl, a tam doufám, že se posuneme. Pro teď si ale vystačíme s tím toolsetem, MCP protokoly, a tím, že si volám vlastně jen z té externí komponenty.
MCP protokoly vyvolávají ve mně takové biologické reakce, promiňte. Co je zajímavé a na co se hrozně těším, je multiagentní aspekt celého systému. V současné době agenti běhají v simulaci a fungují tak nějak jako příjemně lepší pomocníci. Ať už je to coding copilot různého druhu, nebo nějaký calling assistant, note taker a podobně, jsou to takoví mí sidekickové. Trochu je kontroluji, směju se, že vždycky něco připíší blbě, a je to fajn. To je takzvaná low value.
Když si představím, že za pár let bude tento přístup evolvovat, budu mít svého asistenta, kterému budu věřit, který mě zná a dokáže za mě delegovat řadu věcí. Objednám si pizzu – už nebudu muset jít na Foodoru, řeknu svému agentovi: „Objednej mi pizzu.“ A co agent udělá? Nepůjde přímo na stránky Foodory, ale zavolá Foodora agentovi. Protože Foodora už bude mít svého agenta, domluví se s ním přes nějaké interface.
A co dělá Foodora agent? Neskreipuje stránky pizzerií, ale volá agentům pizzerií a bere si od nich akční nabídky a podobně. A teď co bude jinak? Bude rozhodně jiný pricing.
Agenti spolu mohou interagovat velmi rychle, takže nastanou daleko sofistikovanější metody pricingu, třeba real-time aukce mezi Foodorou a těmi ostatními pizzeriemi. Programatický nákup pizzy, přesně tak. Bude to algoritmizované, právě díky tomu, že jde o multi-agenty.
Takže tady můžu začít aplikovat různé metody, například aukční mechanismy, které jsou velmi dobře prostudované, jak je implementovat a jaké frameworky vytvořit.
Pokud chceš, mohu ti ještě pomoci s případným dalším upravováním textu nebo rozdělením do menších odstavců.
Tady je upravený a jazykově zpřehledněný text:
Ať už z pohledu uživatele, já můžu říct: „Hele, Foodora, tady chci pizzu,“ a zvolím třeba Dutch auction nebo něco podobného. Anebo tam bude nějaká výchozí možnost, respektive si myslím – nebo doufám – že bude existovat platforma, která umožní interakci mezi agenty. Už budu mít předpřipravené mechanismy, ať už jde o vyjednávací typy aukcí, různé druhy negociací, orchestrace stanovení ceny, přenos peněz či měnových jednotek a podobně. Což jsou zatím platformy, o kterých nevím, že by fungovaly v takovém měřítku, ale myslím si, že to nevyhnutelně vznikne.
Takže třeba Foodora by se napojila na nějakou aukční platformu a tam orchestruje aukci na mou pizzu. Pak mi ji ještě doveze člověk – na motorce to ten agent zatím asi nezvládne. Můj agent se pak zeptá, protože ho oslovila Foodora, která to zase řešila s pizzerií: „Jak ti chutnala ta pizza?“ Já odpovím, že dobrá, a ten feedback se nějak dále šíří.
Co je na tom zajímavé, je celý ten systém hodnocení a důvěry. Když přijde další agent – třeba můj soused – a chce objednat pizzu, tak vzhledem k tomu, že je tam třeba dva tisíce pizzerií, soused jako uživatel bývá líný, takže se podívá jen na první dvě stránky výsledků, kde jsou tři pizzerie promovány. Ten agent ale může projít všech dva tisíce pizzerií, protože kognitivně to pro něj není problém. Reklamy na něj nezabírají tím způsobem, že by ho přesvědčily, že top tři jsou nutně nejlepší – mu je to jedno. Funguje na něj důvěra (trust).
Ale jak se ta důvěra v agentních systémech vytváří? To není úplně jasné. Dnes vidím, že soused mi doporučil určitou pizzu, nebo napsal recenzi, která mi pomáhá s výběrem. Teď ale recenze bude psát agent – možná strojově, možná budou strukturované například jako body. Jiné agenty to budou číst. Reklamy, incentivizace i celý model hodnocení a budování důvěry se podle mě posunou – agenti buď nebudou recenze číst vůbec, nebo je budou číst všechny, anebo všechny recenze budou ve výsledku stejné a už to nebudou psát jen ti „nelíný“ uživatelé, kteří se třeba nechali zaplatit za pozitivní recenze.
Takže celý tento systém se změní a i Google search, kde jsou reklamy nahoře, bude pro agenty do značné míry irelevantní – protože je nebudou sledovat stejným způsobem. Hodnocení pak vezmou spíš na základě relevance či page ranku. Možná dostanu nějaký postih či špatné hodnocení, pokud koupím něco promového, ale to je součástí aukce.
Celý tento multiagentní svět bude fungovat v kooperativním prostředí – i když je zde určitá soutěž, protože pizzerie „bojují“ o mou objednávku, nakonec můj agent, Foodora i pizzerie spolupracují, aby Ondřej (já) dostal svou pizzu. Takže je to nakonec kooperativní prostředí.
Pokud chceš, mohu provést i další stylistické úpravy nebo zjednodušení textu.
Jasně, zde je opravená a upravená verze textu:
Je to nějaký systém s kompetitivním prvkem. Ale postupně docházím k tomu, že agenti si budou vzájemně vyměňovat různé poznatky. Když vezmu příklad z pojišťovnictví, jak jsme se zmiňovali ohledně fraudů, existuje Česká asociace pojišťoven, která pomáhá distribuovat informace o podvodech mezi jednotlivými pojišťovnami. I když jsou pojišťovny konkurenční, spolupracují skrze nezávislé subjekty, které sdílejí informace, ale anonymizovaně nebo agregovaně.
A to bude další problém těch agentů – že v konkurenčním prostředí si budou muset vyměnit informace, ale přitom nesmí něco prozradit, co by jim mohlo uškodit. Tomáš zmínil dva hlavní problémy: první je, že člověk má nějakou strategii, rozumí konkurentovi a ví, co mu může říct a co ne – něco takového agent sám úplně nemůže vědět a má za to jen omezenou zodpovědnost. Druhý problém je, že agent bude náchylný k útokům – bude na něj útočit spousta lidí snažících se získat jeho data. Člověk má omezenou kapacitu komunikace, protože se může spojit jen s několika lidmi, ale agent může paralelně zpracovávat tisíce požadavků. To znamená, že na něj lze útočit v podstatě masivně a snažit se ho vykořisťovat.
Je to něco podobného DDoS útokům nebo jiným kybernetickým útokům, ale já vidím zajímavý rozdíl – agent může být i navigovaný, podobně jako social engineering u lidí, takže tu bude „agent engineering“ – pokus manipulovat a využívat agenty. Obrana proti tomu není jasná, protože jailbreaking velkých jazykových modelů (LLM) je zatím nevyřešený problém a bude s tím třeba počítat.
Pokud tedy agenti budou interagovat s okolním světem, který může zahrnovat ostatní agenty – potenciálně škodlivé, konkurenční nebo kooperativní – a nebude jasné, kdo je kdo, bude to opravdu výzva pro vyšší úrovně autonomie agentů. Předpokládám, že se v této oblasti objeví dynamiky, které bude těžké předvídat.
Na závěr, i když si takové prostředí uzavřu, například pokud banka bude mít svoje agenty, kteří jsou plně kooperativní, je zajímavé to, že nyní každý může vytvořit svého vlastního agenta. Microsoft například nasadil Copiloty všude, což zvyšuje produktivitu. Ale second-order efekt je, že si každý vyspinuje agenty pro své vlastní potřeby. Takže například v bance může vzniknout 2000 agentů, kteří řeší různé úkoly – například jeden agent řeší dovolenou pro konkrétního zaměstnance. Každý má trochu jiný prompt, ale zároveň…
Pokud chcete, mohu text i dále zformátovat nebo zkrátit.
Zde je opravená a lépe srozumitelná verze vašeho textu:
Některé zdroje budou také v podstatě duplikovány. Takže tady máme velkou demokratizaci AI, kterou vnímám jako skutečnou poprvé v životě, protože píšu přirozeným jazykem – to je ta pravá demokratizace. Zavedení toho z pohledu bankovní governance bude opravdu náročné. Chci dát lidem přístup k ladění (tuningům), aby mohli být produktivnější, ale zároveň aby to celé mělo nějaký systém a správu (governance). Aby někdo nezneužil high risk use case podle Evropského AI Actu, což je opravdu složité.
Myslím, že to budou řešit i společnosti interně, jak vlastně udržet tuto „zoologickou zahradu“ agentů na uzdě, tedy jejich majitele, aby nevytvářeli další nebezpečné spin-offy. To, co popisuješ, nastane bez nějakého technologického průlomu, čistě další optimalizací a škálováním současných velkých modelů.
Vrátím se k otázce, kterou položil Hinek. Před 15 lety ta krabička vypadala jinak. Líbí se mi, že to dáváš na zem a neříkáš tomu AGI, ale že to je statistická metoda, což je super, ale něco bych tomu ještě nesvěřil. Co v té rovnici chybí? Říkali jsme „reasoning“, myslím, že paměť byla jedna z velkých věcí a teď je téměř vyřešená. Není ideální, ale už neřešíme kontextové okno.
Co máš pocit, že by měl být další krok, případně jaké moduly tomu celému chybí, abychom se dostali k AGI nebo obecné inteligenci, nebo k dalším stupňům?
Poprvé po hodině se tu dotknu otázky AGI. Je to nevyhnutelné. Možná se nejdřív vrátím k tomu, co podle mě chybí v multiagentních systémech. To, co jsem tu popisoval, myslím, že je teď na spadnutí a opravdu bych byl rád, kdyby startupy začaly přemýšlet nad tím, co už je prozkoumané. Algoritmy jsou nadizajnované, vše je optimální a práce je hotová, takže ať to implementují do byznysového použití – ať už jde o aukční mechanismy, vyjednávací mechanismy, herní teoretické mechanismy – to vše může být postaveno na nějaké platformě, která je relativně nezávislá na byznysu. Těm agentům to pomůže k větší autonomii a zároveň by měl někdo myslet na druhotné efekty a přidat bezpečnostní a ochranu soukromí.
Podle mě v dalších zhruba deseti letech bude tento sektor intenzivní podhoubí Silicon Valley a z toho budou vznikat různé inovace. Myslím si, že je to nevyhnutelné a jde o evoluční proces.
Co se týče AGI, mám dvojí odpověď. Za prvé, co vlastně znamená obecná inteligence (general intelligence). Pokud je definována jako lidská úroveň inteligence, tak podle mě na úrovni průměrného člověka už dnes jsme. Nechci urazit žádné kvantitační skupiny, ale LLM reasonuje lépe než velká část lidí. Když někteří lidé mají problém vyřešit určitý úkol nebo porozumět knize, která je nad gymnaziální úroveň, tak to znamená, že…
Pokud chcete, mohu pokračovat, případně upravit další části.
Tady je opravený text s lepší formou a plynulostí:
Máme inteligenci na úrovni člověka, ale nemáme tu human, tedy humanity-level intelligence, která by opravdu umožňovala posunout stav současného výzkumu a technologie dále. Nemáme ani cestu k superinteligenci – ať už je to cokoli a ať už to zahrnuje cokoliv.
Jak jsem říkal, myslím si, že to, co dnes znám a jak my lidé uvažujeme, tedy naše lidská inteligence, vyžaduje nyní lepší základ (grounding) a schopnost rozumu (reasoning). To, co ale opravdu nevím a ani k tomu nemám silný názor, je, zda stačí přístup založený na LLM, tedy na zpracování textové inference a jazyka jako takového. Nevím, zda je pravda to, co říká například Chomsky nebo jiní, že jazyk je to jediné, co potřebujeme a že v něm se vyjadřuje celé myšlení, nebo jestli budeme potřebovat specializované LLM zaměřené třeba na matematiku, fyziku či jiné obory, které budou mít jiné abstrakce, jiný jazyk, a dokonce i jinou podkladovou strukturu.
Kdybych se podíval do jejich latentního prostoru, pravděpodobně bych tam viděl úplně něco jiného, ne jen běžný vektorový prostor, ale spíše prostor nějakých struktur. Bylo by totiž velmi zajímavé vidět, jak myslí matematika, kteří podle mě uvažují jinak než my ostatní. A možná budou potřeba nějaké otisky této inteligence do LLM, aby se opravdu dostaly na samotnou hranici lidského poznání. Možná ale také pomůže samotná singularita – že se tam ten vývoj dostane evolučně sám. To už nemusí být na nás, ale je těžké odhadnout, kdy ta singularita vlastně nastane.
Systém musí „držet moč“ nějakou dobu – tedy zůstávat stabilní – a za tuto dobu může něco posunout. Otázkou je, jak dlouho musí vydržet, aby provedl dostatečně velký posun: důkaz dlouhý deset řádků zvládne, ale co důkaz desetistránkový? Kolik stránek je potřeba, abychom udělali podstatnou změnu, podstatnou „deltu“? Asi na to mají odpověď právě matematici.
Další otázka je, zda LLM vůbec může vygenerovat celý prostor možných odpovědí – celý „search space“. Pokud by existoval prostor, který LLM nedokáže pokrýt, znamenalo by to, že se tam skrývá určitá znalost, kterou LLM nikdy nezíská. Možná právě to je ta důležitá část, kterou potřebujeme k dalšímu posunu v dané oblasti.
Pokud si představím vstup (input), který modelu dám, a on mi generuje různé odpovědi, musím zajistit, aby pro tento vstup model mohl pokrýt celý relevantní podprostor odpovědí. Ty jsou vlastně latentní prostory, ale můžeme říct, že tam musí existovat všechny možné důkazy a popisy reality či nereality. Pokud je to pravda – a nevím, zda to už někdo dokázal – jsme blízko. Pak už jen zbývá hledat ty správné vstupy, které nám umožní generovat odpovědi, protože prostor možných odpovědí je nekonečný – odpovědi jsou totiž de facto nekonečné.
To souvisí s tím „držet moč“ – jednoduše řečeno, musím definovat dostatečně velký prostor odpovědí z hlediska jejich délky i bohatosti, ve kterém mi model umožní posunout poznání dál.
Pokud chceš, můžu text ještě více upravit nebo zestručnit!
Zde je opravený text:
Sunutí toho poznání mi zase umožní nafouknout ten prostor o něco dál. A pokud tohle mám, tak je v uvozovkách vyřešeno a je to o tom prostě postavit tomu tu infrastrukturu, a pak to samozřejmě udržet na uzdě. A já si právě už nejsem přesvědčený, že je potřeba další revoluce. A o tom nejsem přesvědčený, nedokážu sám udělat důkaz, ať tady udržení moči nebo prostoru. A to si myslím, že někdo se tím aktivně zabývá.
V jaké fázi to přijde, že už je to dobrý, protože pokud budeme mít podprostor, který je slepý, tak další generaci LLM postavím tak, aby dokázal generovat věci tady v tom prostoru. Takže to je z pohledu statistiky a je to z pohledu toho, jak jsem dřív říkal – až LLM dokážou generovat jakékoli videa, tak vlastně jedno z těch vygenerovaných videí bude zbytek mého života. Protože mi to dokáže vygenerovat jakékoli video, tak já se budu moci podívat na zbytek toho života.
Je to Max Tegmark, který takhle popisuje ty vesmíry, taky jich mám nekonečně, takže mi musí existovat prostě nějaká konkrétní varianta. Takže pokud LLM dokážou tohle pokrýt a mají dostatečnou, já nevím co to je, kompletnost – prostě computational completeness – tak je hotovo a stačí to zase teď z pohledu AGI, z pohledu suprainteligence. Není žádná další dimenze, ve které my ani nejsme, kterou je potřeba prozkoumat. Určitě. Nebo jako, bylo by škoda, kdyby nebyla. Ne, a tak to je – že když by nebyla, tak jsme v simulaci, ne? Jakože tak je ten náš systém tak vydefinovaný.
Noviny jako nečny? Jinak musí být, a to je přesně kompletnost – že matematika není kompletní systém. To je vlastně to samé, že jakýkoliv matematický koncept je jenom řez, a až když bys měl jich nekonečně mnoho vedle sebe v součtu, tak to popisuješ. Ale jak se říká, že matematika je univerzální jazyk ve vesmíru, tak jenom do nějaké míry, a ta matematika se taky vyvíjí.
Měli jsme přirozená čísla, potom nulu a záporná čísla a zlomky, které jsou vlastně inovace. To reálně někdo vymyslel, aby popsal prostor, který do té doby nebyl schopen popsat. A je otázka, kolik tady těch prostorů je. Možná opravdu je tady ten prostor konceptů nekonečný, i tak bys to nabízela, že nebude asi konečný.
Ta nekompletnost matematiky je potom nějaká možnost něco dokázat či nedokázat a nějaká podnožina věcí, které jsou nedokazatelné kvůli sebereferenci. A to je taky zajímavý aspekt toho, že na jednu stranu chceme mít to AI nebo systém pod kontrolou, ale víme, že k té kompletnosti tam musí být prostě ta zpětná smyčka, jak to možné nazývat – nějaká ta „I loop“ nebo „strange loop“ tam musí být vlastně, aby způsobila tady tu kompletnost, ale taky tato strange loop způsobí to sebeuvědomění, self-reasoning, který pak vede k těm vnitřním stavům, které nebudeme mít pod kontrolou, alespoň tedy z mého skromného pohledu.
Takže jo, já se na to všechno vlastně těším, protože člověk to čte celý život a teď se to implementuje a manifestuje. A zase Honza Romportl by tady řekl ty pravděpodobnosti…
Pokud byste chtěl ještě více zpřehlednit nebo upravit text, dejte vědět.
Jasně, tady je opravený text s lepší srozumitelností, gramatikou a interpunkcí:
Já, nebo Honza Kurvajč, to je taky, jako, jsem tady s těmi dvěma nadšený, jak se tím zabývají, a myslím si, že je to fakt potřeba. Na druhou stranu je fascinující jenom to pozorovat a být u toho, protože ta doba je úžasná v tomhle směru – je to jako „once in a lifetime“ pro lidstvo, probíhá tady ten přerod. Je zatím rychlý, což taky popisuje Nick Bostrom ve své knize Superintelligence, kde mluví o rychlosti singularity a říká, že to můžou být sekundy, dny, roky nebo desítky let. Vyzerá to na nějakou střední cestu, kterou zažije jeden lidský život. A to je vzrušující, ať už to dopadne negativně nebo pozitivně.
Doporučuju přečíst „Wait But Why“ o superinteligenci, tam má právě ten obraz projíždějícího vlaku. Už je téměř tak chytrý jako my – teď je to jako výzva, kam zmizel. Exponenciální růst je silný. Ale zase, exponenciály vlastně neexistují, všechno jsou sigmoidy. Nevím přesně, kde je to flattening. Z pohledu „thinking in systems“ ve vesmíru žádná skutečná exponenciála neexistuje, všechno někde vyplýtvá a stabilizuje se, a je otázka kdy. Třeba OpenAI už by mohla mít nějakou evaluaci, která se trochu narovnává. To samé bude s progressem – pak bude potřeba udělat nějaký revoluční pokrok, aby nás to posunulo dál a z té sigmoidy udělalo novou exponenciálu, která zase nakonec zase vyplýtvá.
Z pohledu teorie systémů by bylo překvapivé, kdyby exponenciála byla nekonečná nebo extrémně mohutná – relativně by to bylo neobvyklé. Rozměr sigmoidy je těžké odhadnout. Možná poslední střípek je, že evoluce měla spoustu času optimalizovat a najít „strop“ sigmoidy. Bylo by divné, kdybychom relativně rychle dokázali vytvořit výrazně inteligentní bytost, protože příroda to zatím nedokázala. Jasně, měla na to desítky tisíc let, možná i víc, ale ani před tím nepřišla. Možná existuje inteligentní práh někde kolem IQ 150–210, nevím přesně, a pak je potřeba něco fundamentálně jiného, na co příroda zatím neměla čas ani evoluční prostor, co nám umožní poskočit dál. A tam možná uvázneme.
Takže možná budeme mít EGI (umělou obecnou inteligenci), ale bude to spíš podobné sousedovi, který občas udělá chybu a nebude dokonalé. Nepřijde mi samozřejmé, že singularita automaticky nastane a všechno se samo odrazí nahoru. Možná to bude trvat nějaký výpočetní čas a záleží na výpočetních prostředcích, které tomu dáme. Možná kapacita výpočetních zdrojů bude rovnat velikosti naší galaxie, nevím. Rozměry toho budou fascinující.
Uvidíme. Já si to užívám. Užívám si tenhle oblouk od somálských pirátů k vesmírným…
Pokud chceš, mohu text ještě více zjednodušit nebo přeformulovat.
Ignozim. Ondřeji, já vás teď na závěr možná vrátím zpátky z vesmíru na zem. Do Prahy. Do Prahy a jiných míst katastru. A chtěl bych se tě ještě zeptat, co tě čeká teďka v dalším roce po akvizici Adastry? Jaké jsou pro tebe výzvy, na co se těšíš a nad čím přemýšlíš?
Myslím si, že v současné době nemáme nic „ložného“. Investiční proces vlastně proběhl, ještě nějak dobíhá a podobně. Mám za to, že až se věci usadí, což by mělo být relativně rychlé, doufám, že už tam nebudou žádné překážky, nastane nějaká designová fáze.
Investor má nějaký investiční záměr. Bude mít investiční záměr s Adastrou, který se asi už někde uvnitř komunikuje a tvaruje. Kolem tohoto záměru se utvoří strategie. Aspoň tak bych to viděl já. Já bych za to byl rád — mám rád, když se vytýčí směr.
Z mého osobního pohledu bude AI hrát v tom významnou roli. Investovat do Adastry a nechat AI ležet ladem mi osobně nedává smysl. Myslím, že budete součástí nějakého multiple, že AI přispěje k hodnotě. Ondřeji, byl bych překvapený, kdyby AI neměla valuaci. Proto si myslím, že součástí strategie bude určitě růst AI.
Prozatím, co jsme formovali na další fiskální roky, je — nechci říct urgentní záležitost, ale za poslední roky už bylo xkrát potvrzeno a ukázáno, že AI má přidanou hodnotu a dává smysl ji adoptovat do různých částí byznysu. To bude pokračovat dál.
Všechny technologické části jsou tu, mají různou úroveň vyspělosti, a proto je můžu používat v systémech, které mají různou míru kritičnosti. Není na co čekat. Byl bych byznysmen, naše value proposition a offering už se otrnily oproti jednotlivým use caseům.
Pojďme se na to dívat holisticky: udělejme agentní platformu a na ní nasbírejme 18 pokročilých use caseů. Proč to dělat jeden po druhém? Pokud si nejdřív ukážeme, že funguje jeden use case a pak půjdeme dál, už je podle mě pozdě.
Vidíme, ať už to jsou banky z východní Evropy, které u nás objednaly multi-year engagementy a opravdu chtějí transformaci, nebo technologické scale-upy, nebo zdravotnické firmy, nebo telekomunikační společnosti — vidíme i velké hráče, kteří říkají: „Už jsme si to ověřili, zvalidovali, teď do toho šlapeme.“
Je to stejné jako před 25 lety s datovým skladem. Nikdo v určité fázi nepochyboval, že je potřeba mít data digitalizovaná a uložená. Je to jako s cloudem — také jsem mu některou dobu odolával, ale pak jsem migraci provedl, a už tehdy to bylo považováno za klíčovou konkurenční výhodu, rychlost změny, rychlost obsluhy nových zákazníků a jejich nových potřeb.
Z mého pohledu je to naše propozice — provést společnosti touto transformací, kdekoliv jsou.
Jasně, tady je opravený a lépe strukturovaný text:
Někdo třeba trochu zaspával, data ještě úplně nemá upravená, nebo mu to v nějaké infrastruktuře trochu vázne, ale pořád je správné rozhodnutí jít do toho. Možná to bude chtít trochu déle čekat, ale my ho tím provedeme. Máme komplexní nabídku AI transformace a globálně to rezonuje s firmami. Jen vidíme, že někteří stále váhají – ještě počkají, ještě dotáhnou tenhle use case, zkusí POC. POC se dělaly asi poslední dva roky stovky až tisíce, často jen z fundingu hyperscalerů, a všichni vidí, že když se to dělá izolovaně, má to omezený dopad. Ale když se to skloubí a odemkne se nějaký proces, vypadá to úplně jinak.
Tady je podle mě oblast, kde je Adastra skvěle postavená. Z mého pohledu je nabídka v oblasti AI jasná. Co se týče trhů, kde budeme působit, Adastra má jasný směr. Podporovat růst v regionech, kde má silnou značku a skvělé zákazníky.
Když se na Adastru podívá investor, tak v Česku se za dva roky takové desetinásobné zvýšení asi stát nemůže. Jsou jiné exponenciální regiony, kam se dá zaměřit. Současně také nové definice, které uvidíme, a těším se na to. Myslím si, že je spousta podnětů a příležitostí i pro naše AI lidi, kteří se budou moct podívat na zákazníky globálně a dělat věci pořádně, ve velkém, s výborným světovým partnerem, který má know-how i skvělou síť kontaktů. Já se na to opravdu těším.
Jo, moc gratulujeme, je to potvrzení úspěchu a dobré práce.
Na závěr se zeptám: kdy myslíš, že můj agent bude komunikovat s Foodora agentem? Kdy bude první pizza objednaná kompletně agentně? Musí být agentně upečená. No, chytrá pec!
Jirko, pokud tě dobře chápu, ty svého agenta moc používat nebudeš, ale pro nás ostatní doufám, že to přijde brzy. Dokud nebude v Americe situace, kdy ti třeba Google objedná pizzu samostatně, tak si myslím, že to je reálné. Tam už se to podle mě propojuje. Tady v Česku zatím osobní asistenti jako Siri, Google a podobní s tím moc neudělají, takže musíme čekat, až někdo objednává za nás. Ta predikce je pár let, maximálně jednotky let, nebo spíše jednotky měsíců. Možná je tedy čas zavolat Foodoře, aby udělali agenta a napojili ho na Google.
Super, těším se na to a děkujeme moc za tvoje zkušenosti, pohled na agentní systémy a celou tu cestu.
Díky moc, Ondro, že jsi k nám přišel popovídat. Bylo to super, díky za pozvání.
Děkujeme, že jste poslouchali až do konce, a také děkujeme našim partnerům a členům Data Talk klubu: Intex, Saska, Bystreet, Colors of Data, Revolt BI, Good Data, Keboola, E-Mark, Carl Data Company a Data Mind.
Pokud chceš, můžu to ještě upravit do formálnějšího stylu nebo pokračovat v nějakém jiném směru.
Opravený text:
Notino a Flo. A pokud chcete zůstat v obraze, co se české datové scény a globálních datových technologií týče, nezapomeňte se zaregistrovat k odběru našeho týdenního newsletteru na datatalk.cz. Nechť vás provázejí data.