Podcast

Data Talk #34: Filip Dvořák (Filuta AI)

epizoda#34 |  vyšlo  |  délka  | 827 poslechů |   |  mp3

S Filipem Dvořákem z Filuta AI probrali moderátoři Hynek Walner a Jirka Vicherek jeho cestu ze zázemí MatFyzu přes Google, Microsoft až k startupům a Filuta AI. Uslyšíte, proč je pro různé problémy potřeba různé kombinace modelů a jak chce tým kolem Filipa dodávat AI as a service, mít jednotné řešení, které funguje jak pro optimalizaci logistiky tak automatické testování ve videohrách. Na závěr zlehčíme a probereme, jestli žijeme v simulaci a jaké jsou sci-fi scénáře blízké budoucnosti. 

Strojový přepis

Dobrý den, moje jméno je Jirka Vychrtek.

Dobrý den všem, moje jméno je Hinek Vollner.

A vítáme vás u dalšího dílu Data Talku.

Dnes naše pozvání přijal AI vědec, zakladatel startupu Filuta AI, Filip Dvořák.

Děkuji za pozvání, pánové.

Ahoj, Filipe.

Ahoj, vítej u nás.

Filipe, dnes se budeme hodně bavit o umělé inteligenci a také o tvém startupu Filuta AI. Než se ale do toho vrhneme, většina lidí sledovala nějakým způsobem tvou kariéru a máš za sebou velmi zajímavá místa a unikátní zkušenosti. Chtěl bych s tebou projít, kdy začala tvá fascinace umělou inteligencí, IT, jak ses dostal do Ameriky a co tě přivedlo zpátky k nám?

To je obšírná otázka. Začal bych tím, co mě vlastně bavilo, když jsem vyrůstal. Od brzkého věku mě fascinovaly science fiction a stavebnice. Brzy jsem narážel na limity těchto stavebnic, kdy kostiček nebylo dost, což mě vedlo k tomu, že jsem začal vyhledávat inspirativnější prostředí, kde těch kostiček bylo více. Začal jsem hledat způsoby, jak je kompozitně spojovat novým způsobem, jak dosud nebyly spojeny.

To mě přirozeně dovedlo k matematice, protože ta poskytuje nekonečný prostor pro vytváření nových „kostiček“ a jejich skládání dohromady. Již od začátku mého studia na Matematicko-fyzikální fakultě Univerzity Karlovy (MatFyz) jsem se zaměřoval na to, jak různé obory začít propojit mezi sebou a nacházet zajímavé oblasti na hranách mezi různými obory, kde není tolik výzkumu a kde lze rychle přinášet nové zajímavé výsledky s aplikacemi.

To vedlo od počátku mého studia k tomu, že jsem se zaměřoval na kombinace a kompozice různých oblastí umělé inteligence dohromady. Pod vedením profesora Bartáka jsem pracoval na AI plánování, což je platforma, respektive mentální a matematická platforma, do které lze promítnout většinu problémů ze skutečného světa.

Ve svých pracích jsem začal promítat oblasti od logistiky přes výrobu (manufacturing) a zjišťoval jsem, že existuje mnoho prostoru pro optimalizaci. Když se podíváme na stavový prostor možných řešení, oproti existujícím technikám, které byly používány v izolovaných dílčích částech (tzv. silech), kde se vždy optimalizovala pouze jedna část nezávisle na ostatních částech systému, zůstává ještě velmi zajímavý prostor. Pokud tyto techniky zkombinujeme a promítneme do jednoho prostoru, jednoho frameworku, jedné společné základny, můžeme získat ještě několik procent až desetiny procent navíc v optimalizaci.

Například, když chceme postavit kolo a plánujeme, jak se bude vyrábět, a zároveň v jiném procesu navrhujeme, jak podle plánu výroby toho kola nakonfigurovat továrnu, tak aby bylo vyrobeno co nejvíce kol, rozhodnutí v první fázi plánování mohou výrazně ovlivnit kvalitu řešení v druhé fázi návrhu továrny.

Zjišťoval jsem, že tento prostor je velmi rozsáhlý a že společným uvažováním těchto problémů lze dosáhnout lepšího globálního optimálního řešení. Tímto způsobem jsem začal pracovat v oblasti, kterou dnes označujeme jako umělá inteligence, a kombinoval přístupy k řešení komplexních problémů.

Prošel jsem různými etapami kariéry; dosáhl jsem zajímavých výsledků již ve své diplomové práci.

Tu diplomovou práci jsi dělal v oblasti logistiky?

Ano, diplomová práce byla univerzálním plánovačem, kde logistika byla jedním z případů, ale systém byl doménově nezávislý, univerzální plánovač. Fungovalo to velmi dobře na logistických scénářích.

Po diplomce jsem dostal nabídku z Francie. Přešel jsem tam na dvouletou bilaterální spolupráci s MatFyzem a pracoval s Malikem Galabem, zakladatelem oboru AI plánování samotného. Malik Galab byl autorem klíčových systémů pro vesmírnou navigaci, ovládání satelitů a pro různé další oblasti, například algoritmů pro optimální vybíjení a nabíjení článků v bateriích telefonů, tak aby byla maximalizována jejich kapacita.

Tyto problémy jsou náročné optimalizační úlohy, kterými se AI plánování zabývá. Po dvou letech u něj, jako doktorand, pokračoval jsem působením v několika dalších výzkumných laboratořích. Následně jsem přeskočil do Google v Kalifornii, kde jsem také načichl Silicon Valley a startupovým světem.

Počkej, ty jsi byl v Google jako PhD student v rámci nějakého jejich programu? Jak to fungovalo?

Byl jsem tam na výzkumné stáži. Proces byl náročný. Google má velmi vysoký filtr, úspěšnost přijímání na stáže je velmi nízká, někde kolem jedné desetiny procenta zájemců. V té době, když jsem byl na MatFyz, kromě studia matematiky a kombinování různých oblastí AI jsem se také zájmově věnoval softwarovému inženýrství a účastnil jsem se různých soutěží v tom, jak co nejrychleji a efektivně napsat kód a řešit algoritmické úlohy. Vnímal jsem to jako intelektuální cvičení.

Měl jsem štěstí, že Google vypadá na tyto soutěže a IQ testy, a v této oblasti jsem dosáhl vysokého hodnocení. Současně jsem se věnoval oboru umělé inteligence, který Google dlouhodobě zajímá a v němž nabírá nové lidi, takže se mi podařilo uspět.

Jak to pak probíhalo, když tě přijali? Bere tě Google a jste tam najednou 50 lidí nebo tě přijmou jako zaměstnance do nějakého týmu a pak chodíš do práce?

Korparátní hiring má několik forem. Jednou z nich je, že projdeš univerzálním výběrem, který zahrnuje zhruba 8 až 11 pohovorů, někdy technických, někdy personalistických. Když úspěšně projdeš, dostaneš se do tzv. hire poolu – tedy do interního seznamu kandidátů, kteří se nabízejí k obsazení pozic.

V rámci společnosti k tobě chodí hiring manažeři, kteří mají kapacitu (headcount) a hledají vhodné kandidáty z hire poolu pro svou roli. To je model často používaný u méně zkušených nebo juniorních vývojářů, datových vědců a AI vědců, což byl i můj případ tehdy.

Když člověk získá větší zkušenosti a senioritu, což byl i můj případ při nástupu do Microsoftu, probíhá hiring přímo přes hiring manažera, který už od začátku do procesu vstupuje a jasně ví, do jakého týmu kandidát půjde a co bude dělat. V takovém případě jde o tradiční nábor.

Takže v Google jsem byl zařazen do hire poolu.

A na čem jsi tam pracoval?

Pracoval jsem s jedním z největších datových toků na světě – jednalo se o události z AdWords, reklamní platformy Google. Jakákoli interakce s reklamou na straně uživatele na stránce s Google Ads vytvářela události, které se zpracovávaly.

Nad těmito daty jsem psal různé formy automatizovaného testování a analyzoval chování uživatelů.

A jak bys přiblížil výzkumnou činnost v Google? Připodobnil bys ji spíš ke akademickému výzkumu nebo spíše k R&D oddělení, například takovému, jaké známe v Česku?

Když jsem tam byl v roce 2013, velká část společnosti byla zaměřená na to, aby rozjížděla hlavní ekonomický stroj, což byla reklama. Výzkumná část byla výrazně menší.

Musím říct, že ze zákonných důvodů (NDA) jsem nebyl schopen úplně otevřeně mluvit o všem, co se dělalo ve výzkumu. Ve společnosti existovala Google X, což je taková inkubační laboratoř, kde se rodily projekty jako třeba Waymo pro autonomní řízení.

Moje zkušenost byla relativně uzavřená v určité bublině, ve které jsem působil. Měl jsem ale možnost během interních přednášek vidět práci jiných výzkumných týmů, která se týkala například kvantového výpočetnictví (quantum computing) a autonomního řízení.

Tyto výsledky jsou dnes už veřejné. Můj zážitek z prostředí Google byl velmi pozitivní, byla tam snaha zaměstnancům vytvořit co nejlepší podmínky. V mnohém to připomínalo později Google Park, tedy prostor s maximálním pohodlím, minimalizací drobných rozhodnutí, aby zaměstnanci byli co nejvíce kreativní.

Byla tam možnost věnovat až 20 % času svým projektům, zájmovým nápadům. Tuto praxi do značné míry přebíráme i u nás ve Filutovi – snažíme se našemu seniornímu týmu umožnit co nejvíce prostoru pro kreativitu.

Ještě se vraťme k tvé kariéře. Co bylo po působení v Google?

Dokončoval jsem v té době doktorát. To bylo jeden z důvodů, proč jsem v Google nezůstal, ale přesunul jsem se do Microsoft Research v Dánsku. Dánsko bylo prakticky jednodušší pro přejezdy do Prahy.

V Microsoftu jsem působil rok a během toho jsem dokončil doktorát. Po nástupu Satyi Nadelly do pozice CEO a jeho podpoře přechodu společnosti do cloudu došlo ve výzkumných projektech ke zpomalení.

Proto jsem Microsoft po roce opustil a jako čerstvý doktorand jsem zkoumal akademickou kariéru. Přijal jsem nabídku na University of Toronto – v té době to byla 16. nejlepší univerzita na světě.

Tam jsem jako postdoktorand spolupracoval s výzkumnou skupinou Tidal, která patřila do oblasti umělé inteligence a automatizace, vedenou profesorem Christopherem Beckem.

Zabývali jsme se plánováním, rozvrhováním, operačním výzkumem a Bendersovou dekompozicí.

Co je to Bendersova dekompozice? Já to snad nikdy neřekl česky.

Bendersova dekompozice je velmi užitečná technika pro řešení obtížných optimalizačních problémů.

Představme si těžký problém, například NP-úplný, kdy chceme najít řešení minimalizující nějakou funkci.

Například bychom chtěli najít molekulu s maximální stabilitou, tedy s co nejnižší energií struktury. Nebo optimalizovat složení krmiva pro zvířata tak, aby kondice masa byla co nejlepší.

Máme tedy optimalizační úlohu: například přiřadit gramáž jednotlivých krmiv k jednotlivým zvířatům pro optimální výsledky.

V tomto prostoru existuje globálně optimální řešení. Problém je, že jej najít je velmi složité; řešení je těžké „uhodnout“.

Bendersova dekompozice funguje tak, že problem rozdělíme na jednodušší podproblémy pomocí relaxace.

Podíváme se na „uvolněnou“ verzi úlohy, kterou lze řešit snáze. Poté zjistíme, zda v této relaxaci může být optimální řešení.

Pokud ne, použijeme informace z této relaxace k oříznutí části prostoru, kde optimální řešení nemůže být.

Tímto způsobem postupně redukujeme oblast hledání, až se hlavní problém zmenší natolik, že lze řešit přímo.

Tato metoda je velmi efektivní pro opravdu složité problémy.

Mezi velmi těžké problémy patří i optimalizace v logistice, například nakládání kontejnerů v přístavech, což je problém s obrovskou škálou, množstvím kontejnerů, jeřábů a omezeními ohledně termínů a umístění.

To je jedna z nejnáročnějších optimalizačních úloh dneška.


Pokud budete chtít, mohu pokračovat s přepisem další části, kterou máte k dispozici.

Níže je přepsaný text do spisovné češtiny, přičemž je zachován celý obsah a význam původního textu:


Níže uvedené patří mezi nejnáročnější optimalizační problémy na světě.

Podobně je to například v oblasti stavebnictví. Když stavíme mrakodrap v New Yorku, je velmi důležité vědět, v jakém pořadí rozeslat různé pracovní týmy, aby stavěli konkrétní části mrakodrapu třeba ve výšce 140 pater. Máme zde několik desítek tisíc elementárních jednotek, které je potřeba postavit, přičemž mezi nimi existují různé vazby. Beton tuhne určitou dobu, některé součásti mají omezenou životnost, a veškerou práci provádějí lidé, kteří jsou součástí toho rozvrhu. Navíc se ti lidé občas nechovají zcela deterministicky; nelze je jednoduše zabalit do deterministického modelu, protože se může stát, že navzdory očekávání nebudou tam, kde mají být. Mohou být na kritické cestě, kde například musí stát sloup, aby mohlo začít stavění dalšího patra, ale z různých důvodů se tam lidé neobjeví. Toto je další část velmi složitých problémů, které je třeba řešit.

Právě na tuto škálu problémů jsme se intenzivně zaměřovali v rámci TIDLu na Torontské univerzitě. Byla to velmi silná zkušenost, až na zimu 2015, kdy bylo v Torontu kolem minus 40 stupňů, což mě nakonec přimělo odejít do slunnější Kalifornie. V Kalifornii jsem přijal pozici v Palo Alto Research Center, které se nyní opět stalo součástí Stanfordu pod Stanford Research Institute. Toto místo bylo dlouhodobě zasazeno do prostředí Stanfordu, co se týče výzkumného vlivu, ale i díky studentům a přednáškám. Stanford Research Park je totiž ukázkovým modelem, kdy se výzkumné laboratoře často soustředí v blízkosti univerzit s programy souvisejícími s jejich výzkumem.

Pokračuji tedy s profesionální dráhou. V parku se nám podařilo získat dvě granty, kde jsem vedl oblast umělé inteligence. Jeden z nich byl od DARPy a týkal se optimalizace měst. Konkrétně jsme spolupracovali se zákazníkem z Los Angeles a zaměřili jsme se na skloubení behaviorálních modelů lidí – jak se chovají, jak preferují způsoby přepravy, co je pro ně důležité, jak citlivě reagují na kompromis mezi cenou a délkou cesty. Například kdo je ochoten cestovat o deset minut déle, pokud to ušetří pět dolarů. Cílem bylo zkombinovat osobní model každého člověka s tím, jak optimalizovat celý systém. Zaměřili jsme se na dopravní špičky a podařilo se nám vyvinout doporučovací systém, který již při adopci čtyř procent uživatelů dokázal snížit celkový čas strávený dopravou zhruba o devět procent. To byl velmi dobrý výsledek.

Následně jsme část tohoto výzkumu odprodali a já jsem se pustil do dalšího DARPy projektu, zaměřeného na optimalizaci výrobních procesů. Zde bylo potřeba skombinovat informace napříč různými úrovněmi výrobních procesů – od nanoúrovně, kde řešíme orientaci molekul a její dopad na chování celého systému, až po makroúroveň optimalizace samotné výroby v továrně. Měli jsme několik modelových příkladů. Velice zajímavé pro DARPu bylo například to, že jsme byli schopni optimalizovat proces přípravy letadel na odolávání zásahům elektrického výboje, jakým je například blesk. Ročně je totiž zasaženo bleskem zhruba 35 letadel, což může poškodit důležitou elektroniku a mít katastrofální následky. Naše práce spočívala v přípravě takových „dráh“ na vnějším plášti letadla, které by elektrický výboj bezpečně odváděly, aniž by poškodily vnitřek letadla.

Co to znamená? Znamená to, že plášť je připraven tak, aby molekuly byly v něm předorientované tak, že nabídnou blesku cestu, která není destruktivní.

A jak vypadá tvoje práce v praxi? Natahujete miliony dat do databáze a pak s nimi pracujete v notebooku? V tomto případě se jednalo o simulace metodou konečných prvků, kterou jsme používali pro molekulární vyhodnocení, a kombinovali jsme ji s problémem plánování založeným na omezeních typu job shop scheduling. Tyto dva problémy byly zanořené v sobě a bylo potřeba v podstatě hledat optimální řešení ve dvou různých „krajinách“ zároveň. Představuji si to tak, že máme dvě hledací krajiny, které obě usilují o optimální řešení, a my spouštíme vyhledávání souběžně pro obě. To je jeden ze způsobů, jak přistoupit k propojení dvou náročných vyhledávacích problémů.

Existuje i jiný způsob, kdy jsou problémy kompletně zanořené – v tomto případě máme jednu hlavní krajinu hledání optimálního řešení a při nalezení kandidátního řešení v této vnější krajině se přepneme do vnitřní krajiny, která odpovídá tomu kandidátnímu řešení, a prohledáváme ji. Tento přístup znamená, že vnitřní krajina se aktivuje pouze tehdy, pokud máme kandidáta z vnější krajiny. My jsme ale tento přístup nepoužili, místo toho jsme měli dva souběžné prohledávací přístupy, které si vzájemně předávaly informace o stavu obou krajin. Toto je náročné na řízení, ale výrazně efektivnější v nalezení dobrých řešení než kompletní vnoření.

Možná bych se ještě vrátil k otázce, jak vypadá běžný den vědce pracujícího na složitém úkolu. Řešíš spíš programování numerických simulací, nebo je tvá práce spíše analytická – návrh metod a nových algoritmů? Myslím, že pokud bych čas rozdělil procentuálně podle toho, čím se zrovna zabývám, tak asi 30 až 40 procent času trávím u tabule nebo s papírem, kde analyticky přemýšlím a navrhuji matematickou strukturu problému a přístupy k jeho řešení.

Za 10 až 20 procent považuji čas strávený tím, že dané řešení převedu do kódu a realizace. Samozřejmě často není nutné, aby implementaci prováděl ten samý člověk, kdo vytvoří návrh, někdy se to předává implementačnímu týmu. Pokud pojednáváme o jednom projektu, na kterém pracuji sám i implementačně, říkal bych, že 40 procent je analytický návrh, 20 procent implementace, dále přibližně 20 procent zabere komunikace a prezentace výsledků, a zbývajících 20 procent experimenty. To myslím je realistické rozložení mého pracovního času.

Děkuji moc, myslím, že pro posluchače je tvá vášeň pro řešení složitých optimalizačních problémů velmi inspirativní. Dosud jsi popisoval svou zkušenost jako vědecký pracovník v různých firmách a institucích, ale teď jsi zakladatelem firmy. Jak k tomu došlo?

Je to přesně tak. Po období v research parku, kdy jsem získal zelenou kartu, jsem se rozhodl vstoupit do startupového světa, který mě vždy velmi lákal. Představoval pro mě tu nejživější část aplikovaného výzkumu, kde se vezme výzkumný výsledek a snaží se ho implementovat na trhu, tedy generovat hodnotu pro uživatele, což je velmi uspokojující pocit – vědět, že něco člověk přinesl společnosti.

První startup, který mohu zmínit, bude ten třetí, protože dva předchozí přeskočím. V tomto startupu jsme se věnovali optimalizaci továren. Vymysleli jsme Factory Operational System, tedy operační systém schopný provozovat a optimalizovat továrnu, včetně vytvoření trhu pro výrobu dané továrny. Firmu se nám podařilo během čtyř let rozšířit na více než 110 zaměstnanců a následně jsme ji úspěšně prodali. Já jsem byl ve firmě pouze první rok, protože většina týmu se přesunula do východního pobřeží, do oblasti Bay, kterou bych nikdy nevyměnil za San Francisco. V tu chvíli jsem se tedy oddělil a věnoval se jiným projektům.

Co se týká třetího startupu, kde jsem byl jedním ze spoluzakladatelů, získal jsem cenné zkušenosti se stavbou startupu ve Silicon Valley od úplného začátku – od fundraisingu přes nábor zaměstnanců až po operativní provoz a budování prvních obchodních kontaktů. To byla velmi cenná zkušenost. Dříve jsem se také angažoval jako poradce ve druhém startupu zaměřeném na foodtech a retail – automatické míchání čajů a přípravu sušenek, které se doručovaly na objednávku ve speciálních vozících po městě. Vozík nebyl autonomní, ale příprava čaje i sušenek probíhala automaticky a řidič výsledek doručil zákazníkovi.

Toto všechno byly startupy založené v období od roku 2016 do roku 2019. Po prodeji třetího startupu jsem realizoval dlouho připravovanou myšlenku – jak skloubit a řešit složité problémy větších měst a dalších reálných světových problémů, což odpovídalo celé mé dosavadní kariéře. Právě exit startupu byl impulsem pro to tuto ideu proměnit v realitu. Našel jsem Martu Andruška jako spoluzakladatele a věnovali jsme čas detailnímu rozpracování a přípravě, jak tento koncept uchopit a zpracovat obchodně. Našli jsme uplatnění na trhu inteligentní automatizace. Startup jsme začínali při náběhu ekonomické recese, a proto jsme se zaměřili na segment inteligentní automatizace, který představuje „hedge“ proti recesi – pomáhá firmám snižovat náklady, zvyšovat obrat a tím generuje jasné přínosy.

Trh inteligentní automatizace v posledních 3–4 letech vzrostl z přibližně 400 miliard dolarů ročně na více než bilion dolarů ročně, což ukazuje, jaký zde je zájem a jak významný je tento sektor, který se již blíží k téměř 1 % celosvětového HDP. Jde o část trhu se softwarem, který pomáhá automatizovat a optimalizovat firemní procesy.

Vyrábíme platformu, která má tento trh inteligentní automatizace urychlit, protože neexistuje dostatek datových vědců, specialistů na machine learning a dalších expertů, kteří by byli schopni pokrýt poptávku daného trhu. Naším cílem je augmentovat lidi – pomáhat jim řešit problémy inteligentní automatizace efektivněji, rychleji a s menší potřebou odborných znalostí.

A jak tedy vypadal start tohoto startupu? Našli jste spoluzakladatele? Začali jste po večerech psát kód, nebo jste nejprve našli první klienty s prohlášením o zájmu (letter of intent) a teprve na základě toho jste produkt vyvíjeli a automatizovali?

Dělali jsme více věcí zároveň. Začali jsme spíš z druhé strany – přemýšleli jsme, co budou investoři požadovat od našeho startupu. To byl jeden z přístupů. Druhý přístup – při vývoji úspěšných produktů, které mají potenciál rychle škálovat, jsme si dali pozor na dvě typická rizika, která mohou způsobit neúspěch produktu.

(Do toho jsem ti skočil, protože miluji, jak každé tvé životní a profesní rozhodnutí chápeš jako optimalizační problém. Slyšíš to taky, Hinku? Tedy, že teď startup a tak dále, a vlastně vždy vybíráš z množiny nejúspěšnější startupy a odřízáváš rizika. Máš to vždycky takhle?)

Mám to tak naprosto ve většině života, jen jedna oblast, kde tuto metodiku nepoužívám cíleně, je romantický život.

To jsem čekal, jsem rád, že jsi to řekl.

Ne, zkoušel jsem, ale nefunguje to.

Dobře, tak zpět k tvé aktuální vášní – startupu Filuta.

Jak tedy vypadal start Filuty? Prvním kritériem bylo rozběhnout projekt co nejrychleji. Odhadli jsme, že by nám trvalo zhruba deset až dvanáct lidských let vyvinout produkt v rozsahu, který chceme a který dokáže uspokojit trh inteligentní automatizace. Ve dvou lidech by to trvalo šest let, ale v týmu dvaceti až pětadvaceti lidí bychom to zvládli výrazně rychleji. Nicméně pětadvacet lidí je potřeba zaplatit, zároveň je nutné načasovat vstup produktu tak, aby byl dodán na trh, který jej bude chtít, tedy ve správnou dobu. Tato kritéria jsme pečlivě sledovali z hlediska časového plánování a efektivity. Současně jsme řešili, jak získat dostatek financí na zaplacení týmu a úspěšné uvedení produktu na trh.

Toto byly hlavní body k zaškrtnutí, abychom investorům mohli předložit ucelený příběh toho, co děláme. Zároveň s budováním produktu a prototypů (minimal viable product) jsme hledali první klienty. Když jsme za investory přišli, měli jsme již dva platící zákazníky, vědecky podloženou práci a kompletní roadmapu s plánem, jak budeme postupovat a koho budeme potřebovat najmout, aby se produkt realizoval.

Zmínil jsem dvě úskalí, kterým jsme se chtěli vyhnout a která se týkají toho, jak jsme tento projekt rozjížděli…

(Úsek zde končí z důvodu vyslovené přerušení.)


Pokud máte zájem, mohu tento text dále strukturovat, ozvláštnit nebo upravit pro specifické potřeby podcastu.

Produkt, který nikdo nechce. Tomuto riziku jsme se snažili zabránit právě tím, že jsme už od začátku začali pracovat se zákazníky a začali jsme produkt dodávat. V současnosti náš produkt běží u několika zákazníků.

Druhé riziko bylo, že bychom pouze dodávali zákazníkům a nestavěli samotný produkt. Pak bychom se totiž stali pouze bodishop consulting agenturou. Abychom tyto dvě části vyvážili, nastavili jsme tzv. plovoucí ratio, tedy kolik kapacity věnujeme které oblasti. Toto ratio postupně posouváme v čase z oblasti consultingu spíše na oblast produktovou, která zároveň reprezentuje to, jak se učíme z vlastního nasazení produktu, abychom co nejlépe přenesli získané zkušenosti do produktu samotného.

Jak vypadalo MVP? Co si máme ve vašem případě představit jako MVP? Je to prototyp jako platforma, anebo MVP v totálně lean startupovém slova smyslu, tedy například mechanický turek, který ale plní to, co po něm chceme?

V našem případě MVP připomínalo obrázek poskládaný z puclů. Produkt je docela komplexní, a MVP vypadalo tak, že pucle jsou položeny na desce, jsou správně zorientované a všechny tam jsou, ale ještě nejsou propojené do sebe. Už je vidět obrázek, ale vše ještě není spojeno. Měli jsme veškeré části produktu samostatně otestované, měli jsme k nim experimentální data, ale samotný systém jako celek…

Jednotlivé části jsou jednotlivé modely. Pojďme se trochu zaměřit na produkt. Náš produkt je platforma, která má čtyři fáze: začíná ingestováním dat – online i offline, pokračuje modelováním dat, přes kompozici modelů až po deployment a generování inteligentní automatizace. Díky tomu je schopná řešit širokou škálu problémů v oblasti automatizace a inteligentního rozhodování.

Můžeme uvést konkrétní příklad? Předpokládám, že budeš omezen tím, co můžeš a nemůžeš sdělit, ale aby si posluchači mohli lépe představit, co je typická úloha, nebo jestli vůbec existuje typická úloha.

Typická úloha může být například v logistice. Vezmeme třeba základní routování pro rozvážkovou službu, která má část procesu velmi citlivou na rozhodnutí. Ta část spočívá například v situaci, kdy máme aktuální stav světa – řidiče rozprostřené po městě, kteří mají právě probíhající zakázky a nějakou dobu návratu do depa, a zároveň máme další objem balíků či objednávek k rozvezení. Inteligentní automatizace by například určovala, který řidič by měl převzít které balíky a v jakém pořadí, jak je naskládat do auta (včetně řešení binpacking problému tak, aby nebyla překročena kapacita) a tak, aby nedocházelo k opoždění, minimalizovalo spálené palivo a čas řidičů, což je v praxi hlavní ukazatel efektivity.

Proces generování takového řešení v naší platformě začíná načtením historických dat o fungování dané firmy či projektu do fáze první – zpracování dat. Provedou se transformace dat tak, aby se daly strukturovat a doplnit semantikou například časových značek, umístění řidičů a dalších důležitých parametrů.

Po přípravě dat přecházíme do fáze druhé, fáze modelování. Tam si vybereme vhodný přístup, například nestandardní bin packing kvůli kapacitě vozidel a vehicular routing s časovými okny pro řešení rozvozu s termíny. Do těchto modelů pak nalijeme existující data a získáme statistiky. Typicky pod těmito modely provozujeme simulátor, který umožňuje ověřit, jak moc je naše řešení lepší než historická rozhodnutí – tedy kolik ušetříme.

Z této historické simulace ve druhé fázi získáme první odhady očekávaných výsledků, což je zásadní pro klienta.

Ve chvíli, kdy máme modely a máme odhad dopadu, jdeme do třetí fáze – kompozice. V této fázi modely operacionálně spojíme, přidáme API, například fastAPI, které definuje, jak se bude systém využívat. Dále se přidávají klientské metriky a cíle optimalizace, protože od zákazníků často nemáme jasný odhad, co chce přesně optimalizovat. Proto vytváříme hyperparametrové mapy, kde ladíme drobné konfigurace algoritmů, například jaká je cena za zpoždění a co zpoždění znamená.

Těmito mapami procházíme prostor parametrů algoritmů a na základě klíčových metrik (například celkový čas řidičů versus počet opožděných objednávek) necháváme zákazníka vybrat, jaký tradeoff mu vyhovuje a která parametriizace mu vyhovuje nejvíce. Toto vybraní parametrů v kompoziční fázi pevně nastavíme.

Po této fázi pak jedním kliknutím vygenerujeme službu, která se nasadí například jako Kubernetes cluster a integruje inteligentní rozhodování do procesů klienta přes existující API.

Děkuji za tento popis, myslím, že to pomohlo i mě.

Zajímalo by mě, jak jsou vaši klienti datově pokročilí? Protože vy aplikujete techniky, které jsou často na hranicích výzkumu. Jaký je profil vašich klientů? Jsou to firmy, které již mají nějakou automatizaci, třeba ale starší, deset let staré metody, s nimiž jim pomáháte? Nebo jsou mezi vašimi klienty i takoví, kteří mají spíše jednoduché obchodní pravidlo, nebo dokonce nic, ale i přesto je pro ně váš přístup výhodný?

Základním předpokladem je, že klient zapracoval na digitalizaci a má data. Respektive nemusejí mít přímo data, ale musí existovat digitální rozhraní, jak pracovat s jejich systémem elektronicky.

Pokud fungují tak, že na konci dne například napíšou kolik výrobků továrna vyrobila na papír, který jen přilepí někam a dále s ním nepracují elektronicky, je těžké s takovou firmou spolupracovat.

Pokud ale mají digitální prostředí, data jsou elektronická, jsme schopni celý proces zkrátit na půl hodiny – během té doby přistoupíme k balíku dat a vygenerujeme modely.

Používáme učící techniky vhodné pro diskrétní modely, včetně AutoML.

Současně vyvíjíme techniky ve spolupráci s vědeckým týmem, které umí syntetizovat modely například pro logistiku nebo průmyslovou výrobu.

Uživatel tak může začít s existujícími daty, ale také může vytvářet modely ve vizuálním editoru i bez dat, například když chce modelovat nový agentní systém, k němuž data ještě neexistují, a budou vznikat teprve s běžením agentů.

Jakmile jsou modely vytvořeny, automatizaci lze jedním kliknutím okamžitě nasadit.

Co se týče velikosti firem, s nimiž spolupracujete – máte již nějaké značky, o kterých můžete mluvit?

Spolupracujeme s Bohemia Interactive, Liftagen, MyFoodPlace a máme osm dalších klientů, se kterými jsme v různých fázích pilotování.

To je zajímavé, protože při zmínce o logistice mě napadá, že Bohemia Interactive jako herní společnost do klasické logistiky nezapadá.

Hry jsou skvělou praxí pro všechny ostatní byznysy, protože vlastně každý byznys je do jisté míry hra.

Pokud umíme dobře modelovat jakýkoliv průmysl, mohou být hry ideální formou testování těchto modelů.

Naše platforma je užitečná pro testování her, protože když se naučíme mechaniku hry automaticky, můžeme velmi rychle na základě nového updatu hry vytvořit model hry a vypustit jednoduchého agenta, který ji odehraje.

Tím zjednodušujeme práci herních testerů, kteří místo psaní dlouhých skriptů nebo manuálního testování mohou pouze definovat cíle.

Například: otestuj, jestli mohu zachránit princeznu; otestuj, jestli lze princeznu zabít, což by nemělo být možné.

Konzistentní aktualizace hry a tento automatizovaný testing jsou velmi cenné, protože testing je nákladná část vývoje herních produktů – přibližně 10 % rozpočtu jde na testování.

Každá chyba, která se v době vydání hry nepodaří odhalit, výrazně zvyšuje náklady na její nápravu.

Nové herní produkty jsou často při vydání plné chyb.

Naše přidaná hodnota je, že nabízíme kontinuální a automatizované testování jednoduchých cílů bez složitého psaní skriptů.

Můžeme například otestovat denně deset tisíc různých atomických chování hry a zjistit, zda nedošlo k nežádoucím změnám po přidání nových funkcí.

Tento vertikál nazýváme Gaming QA.

Jako vedlejší efekt můžeme využít testovací roboty přímo ve hře jako NPC (non-player characters), kteří mohou hrát proti lidem, například ve strategických hrách.

To je zatím naše hlavní aplikace ve hrách.

Z praktického hlediska využíváme herní technologie také v továrním prostředí, například Unity, abychom demonstrovali, jak algoritmy fungují.

Kupříkladu vezmeme FPS šablonu továrny, která je původně určena pro střílečku, odstraníme nepodstatné prvky, přebarvíme prostředí, přidáme asety strojů odpovídajících zákazníkovi a simulujeme dopady našeho algoritmu.

Takto se ukazuje emergentní komplexita, například jak optimální řešení funguje v přemísťování mezi stroji.

Tato vizualizace je cenná, protože optimalizace nejsou obvykle vizuálně přívětivé a hry poskytují dobrou platformu.

Business model je založen na dlouhodobém placení za API a platformu.

Vytváření speciálních VR aplikací pro klienty je součástí pre-sales, často velmi nákladné, a poté prodáváme profesionální služby.

Produkt, který škáluje a zůstává klientovi, je headless platforma poskytovaná formou API.

V současnosti jsme primárně headless, software as a service – tedy dlouhodobě udržujeme službu, aktualizujeme modely, učíme je znovu, aktualizujeme knihovny a dodáváme inteligentní rozhodnutí.

Klíčovou metrikou růstu je počet dodaných inteligentních rozhodnutí.

Zmínil jsi agenty, kteří pomáhají testovat hry, firmy bez dat, firmy v logistice a výrobě – řekl bych, že to pokrývá široké spektrum použití.

Zdá se, že máte jeden produkt, který však pokrývá mnoho různých příkladů.

Jak je možné, že Filuta dokáže pojmout tolik různorodých příkladů?

Náš systém je generátor inteligentní automatizace, což je extrémně univerzální.

Do značné míry přenášíme technologie používané ve vesmírném výzkumu, například plně autonomní plánování meziplanetárních letů či Mars roveru.

Je to technologie AI plánování, která je naším středobodem a je schopná pokrýt široké spektrum reálných problémů.

Navíc můžeme naši platformu nasazovat různým způsobem.

Ve hře například fungujeme tak, že se kontinuálně přeučujeme, tvoříme agenty, kteří po nasazení hru hrají a výstupem je záznam, zda bylo dosaženo cíle.

Toto je jedna produktyzace naší obecné platformy pro konkrétní byznys.

Avšak stejnou platformu můžeme používat v jiných případech, jako je logistika, kde vygenerujeme konkrétní službu na základě klientských dat.

Ta služba běží nezávisle a modely se přeučují třeba jen denně podle nových dat, bez zásahu platformy.

Use case jsou sjednocené tím, že realizujeme řešení skrze platformu, ale každý případ má vlastní modus operandi.

Specifické aplikace se tedy chovají téměř jako nezávislé produkty – specializace na konkrétní byznys, kde hledáme nejlepší způsob využití platformy.

Z byznysu se pak učíme a vracíme funkcionality zpět do platformy.

Filuta platforma je středobodem, kde držíme know-how – tzv. modeling as a service.

Platforma je vždy aktuální a řeší komplexní problém, který neumožňuje jednoduchá, standardní či komoditní řešení.

A čím je problém složitější, tím více přidané hodnoty nabízí naše řešení.

Jsi profesionální editor českých podcastů.

Úkol:
Přepiš text do spisovné češtiny.

KRITICKÉ:

  • Zachovej 100 % obsahu
  • NIC nevynechávej
  • NIC nezkracuj
  • Význam musí zůstat stejný

Pravidla:

  • oprav gramatiku
  • oprav diakritiku
  • rozděl do odstavců
  • zachovej všechny informace

Přepsaný text:

Je to dokonalý lektvar, matematicky na to. A tím pádem už to nikdy nemusíte řešit, budete mít vždycky cutting edge kvalitu. Tak to je ta propozice – už nebudete muset řešit přetrénování, jestli máte ten správný model a podobně. Tam to vidím. Do značné míry je to právě tato propozice a dá se na to dívat jako na AI pojištění.

Pokud tedy máte umělou inteligenci a inteligentní rozhodnutí od Filuty, tak my vás pojišťujeme, že to bude pořád cutting edge umělá inteligence. Přidaná hodnota oproti existujícím balíčkovým řešením je v tom, že ta řešení jsou typicky velmi omezená na jeden malý podproblém. Může to být optimalizace routingu, může to být vehikul routing s časovými okny — tam už se dostáváme spíše do oblasti akademického softwaru. My jsme ale schopní tyto problémy zkombinovat. Existují samostatná řešení, například Google OR Tools, které nabízejí velmi slušné constraintové optimalizátory, ale neexistují off-the-shelf řešení, která by je dokázala kombinovat dohromady. My jsme platforma, která umožňuje velmi snadnou kombinaci těchto řešení pro use case našeho klienta.

Příklady? Když jsme před chvílí mentálně pracovali s nějakou rozvážkovou službou, tak ta v sobě míchá několik problémů dohromady, které každý zvlášť může být řešením dostupným na trhu, ale jejich kombinace nebývá k dispozici. Přitom právě ta kombinace je největší a nejzajímavější výzvou. Kompozice těchto problémů je místo, kde je možné získat vyšší efektivitu, ať už jde o snížení nákladů nebo zvýšení tržeb.

Myslím si, že se nemůžeme nezeptat na téma jazykových modelů. Když nad tím přemýšlím, co to pro vás znamená, co se stalo za poslední dva měsíce, na škále od „nic, my hrajeme jenom naši hru“ po „to je skvělé a můžeme to nějak využít v naší platformě“ – jazykové modely jsou nyní velmi zajímavé a pestré téma. I když koncepty těchto modelů existují už delší dobu, současný boom zejména chat GPT s doplňujícími anotacemi začíná být silným nástrojem i pro běžného konzumenta. Protože jsme taky součástí Microsoft Hub for Startups, máme přístup k OpenAI GPT a využíváme ho v našem produktu pro labelování, popisování a psaní nápověd.

Například když si automaticky naučíme model světa, což je symbolický model s nějakými akcemi, které mají předpoklady a efekty, často nevíme, jak ty akce pojmenovat, protože to v datech není. GPT je v tomto případě užitečné, protože v malém kauzálním okně dokáže vysvětlit, co ta akce pravděpodobně dělá. Příklad: vygenerujeme akci s nějakým nečitelným názvem, který je automaticky generovaný, a víme, že očekávání této akce je například, že ruka byla v místnosti, ruka je připojená k robotovi, na stole je sklenička a ruka je prázdná. Výsledkem akce je, že na stole sklenička už není, ale je v ruce. Tuto akci je těžké automaticky pojmenovat, ale GPT na základě těchto předpokladů říká, že jde o „pickup“, tedy akci, kdy robot zvedl skleničku. Říkáme: „Dobře!“

Dokonce může i vysvětlit, že typicky, když robotická paže zvedá skleničku, dochází k tomu, že sklenička už není na stole a je v ruce, a tyto objekty mají nějakou fyzickou přítomnost. Tato nápověda je užitečná pro uživatele, který třeba pracuje se svým blackboxem, kdy má pouze záznam logu o tom, jak jeho systém funguje. A chce z toho blackboxu vytvořit model nebo začít optimalizovat například to, jak jeho blackbox kontroluje nějakou podčást systému či byznys klienta.

Abychom tento blackbox dokázali klientovi vysvětlit a začít optimalizovat, jsme schopní se automaticky naučit model – kauzální symbolický model, který systém vysvětluje. Z GPT pojmenujeme akce a zároveň je dokážeme vysvětlit, čímž dodáváme vhled do fungování systému, který slouží i k tomu, aby si zákazník ověřil, že systém opravdu funguje tak, jak si myslí. Pokud něco chybí, může to manuálně doplnit nebo vyřadit něco, co by se tam nemělo učit. Vůči tomuto manejovanému modelu potom můžeme začít optimalizovat.

V okamžiku, kdy si klient zadá, co chce optimalizovat, lze ho pak nasměrovat k naší inteligentní automatizaci.


Otázka: Bude někdy Filutu implementovat někdo jiný než vy?

Je tam totiž na konci takový pocit, že teď to zní dost enterprise. Musíte mít na začátku technický tým, reseller musí mít profesionální služby, aby to zapojili a konzultovali. Je to doménově specifické, protože v gamingu je třeba znát problémy spojené s testováním, v logistice zase jiné. Na druhou stranu chcete stavět univerzální matematickou platformu pro celý svět a všechny problémy reálného světa. Jak toto řešíte? Říkal jste na začátku, že časem očekáváte, že čím dál více částí vašeho řešení bude tvořit čistý SaaS a bude tam méně profesionálních služeb. Jak agresivně k tomu přistupujete? To musí být velmi těžký problém, ne?

Výhledově uvažujeme o tom, že platformu otevřeme třetím stranám pro její rozšiřování. V zásadě jak modelovací přístupy, tak kompozice, tedy skládání modelů dohromady, lze vnímat jako marketplace, kde třetí strany mohou například nabídnout krásnou kompozici pro automatické ovládání vysavačů. Tu si klienti mohou zakoupit a vytvořit si tak autonomní servis, který bude kontrolovat vysavač.

Třetí strany si pak mohou z existující databáze na tomto marketplace kupovat kompozice, autonomní systémy nebo inteligentní automatizace podle toho, co zrovna potřebují. Komoditizace a převod na marketplace je naší plánovanou cestou.


Doplňující otázka: Jestli to dobře chápu, vaše vize směřuje k něčemu jako AI butiku, kde si člověk může „nakoupit“ modely a nástroje z AI toolboxu, což je dnes docela chaotické a neuspořádané. Je vaše vize opravdu taková AI butik?

Řekl bych, že ano. Butik ve smyslu nákupního košíku na umělou inteligenci pro inteligentní automatizaci těžkých problémů je velmi trefné označení. Je to vize, kterou si dokážeme představit v rámci rozšiřování inteligentní automatizace a saturace trhu.

Naší hlavní vizí je tuto inteligentní automatizaci dodávat co nejrychleji, protože současný stav trhu v oblasti operačního výzkumu, plánování a rozvrhování je takový, že se stále modeluje ručně s obrovskou expertízou. Typicky constrained-based scheduling je oblast, na kterou člověk musí vystudovat doktorát, aby ji mohl dobře prakticky používat pro těžké problémy.

My se snažíme tento neměnný, již 30–40 let starý přístup k čerpání inteligentních automatizací pro těžké problémy zlepšit. V podstatě rozšířit posuny, které se objevily v toolingách pro machine learning, na další části umělé inteligence.


Otázka: Konkrétně jaké posuny a které části?

Od té doby, co jsem se učil machine learning na doktorátu na Matfyzu před deseti lety, se možnosti práce s modely, zejména neuronovými sítěmi, neuvěřitelně posunuly kupředu.

Dnes například používáme AutoML řešení od H2O, open source knihovnu, která umožňuje prohledávat celý prostor transformací feature setů a poté vybrat nejlepší modely s ohledem na hyperparametry. Je to téměř machine learning na jedno kliknutí.

Když se díváme, jak hluboko je možné ladit prediktivní systémy, tak i při tisících hodinách práce datových vědců může dojít k dalšímu zlepšení. Ale při zaměření na rychlé a levné řešení jsou AutoML nástroje extrémně výhodné a umí dodat zajímavé modely s minimální časovou investicí.

Za půl hodiny můžeme mít relativně slušné řešení bez další investice času.


Podobné nástroje dnes neexistují pro spoustu problémů operačního výzkumu a ani neexistují pro kombinaci různých přístupů v umělé inteligenci, například míchání ML přístupů, diskrétních algoritmů a kombinatorických problémů.

Snažíme se tu jednoduchost AutoML přenést do dalších oblastí umělé inteligence a dát tím možnost kombinovat různé přístupy.

Já osobně považuji právě toto za moment, kdy jsem pochopil, že AutoML pro širší sadu problémů není jen práce s ML modelem, ale i kombinace různých technik – tedy Auto AI v tomto kontextu.


Poznámka: To jsi asi již zachytil, že AutoML je fascinující nástroj. Když člověk poprvé experimentuje třeba na klasickém datasetu Titanic, je tam ten „wow“ moment, jak hodně věcí už není potřeba dělat ručně.

Samozřejmě, pokud někdo s určitou úlohou strávil deset let, pak to dokáže optimalizovat ještě lépe, ale už je to spíše ladění epsilonů, které je drahé. Trh je obrovský – téměř trilionová příležitost, která je zcela nezasaturovaná. My se snažíme jít tím směrem, abychom přinesli užitečnou hodnotu co nejrychleji.


Filozofická otázka: Co tě nejvíc překvapuje, když se ohlédneš zpět? Začínal jsi jako nadějný student machine learningu a AI, a dnes tu máme AutoGPT, agenty a podobně. Jak na to celé koukáš, jaký vidíš vývoj? Co jsi vlastně očekával a co tě překvapilo?

Já jsem filozoficky těžko překvapitelný, protože vývoj AI je v podstatě využívání konceptů, které už akademicky existovaly, a nyní jen operacionalizujeme a nabíráme je do praktické podoby pro koncové uživatele.

Už dřívější jazykové modely existovaly, nebyl to takový zlom. Posun je spíš v produktizaci a zpřístupnění AI všem lidem. OpenAI po mnoha iteracích přišlo s tím, jak oslovit konzumenty a monetizovat jazykové modely.

Poslední zásadný vědecký posun v neuronových sítích byl někdy kolem roku 2016 s příchodem transformérů a autoencoderů. Fundamentální koncepty se už tolik neposouvají.

Technologie, kterou ve Filutovi používáme jako středobod, tedy AI plánování, má kořeny v matematice 60. a 70. let minulého století.

Takže překvapení je pro mě limitované.


Shrnutí: Největší posuny v AI vidíte spíš v dostupnosti a použitelnosti než v fundamentálních objevech. Technologie plánování, kterou používáte, je založená na starých principech a nyní se spíš aplikuje v praxi než objevuje nově.


Malá odbočka: Myslíš AI plánování, Jirko?

Ano, AI plánování je v rámci umělé inteligence jeden z původních přístupů, kdy se lidstvo domnívalo, že vznik AGI znamená, že popíšeme vše kolem nás logickými termíny.

Jakmile máš logický popis světa s pravdivostními hodnotami, můžeš nad tím uvažovat. A k tomu potřebuješ plánovače – speciální software či optimalizační programy, které hledají nejkratší, nejlevnější nebo nejefektivnější plány podle určitých metrik a objektivních funkcí.

Základy AI plánování sahají do matematiky 60. a 70. let 20. století.


Konečně k otázce, co tě nyní překvapuje: Není jejich mnoho, protože využíváme spíš existující teoretické poznatky a adaptujeme je pro koncové uživatele.

Co mě naopak potěšilo, je, že z pohledu koncového uživatele inteligentní technologie činí život přívětivějším, jednodušším a komfortnějším. Například chat GPT vnímám téměř jako náhradu vyhledávačů. I když někdy halucinují, je to stále velmi užitečný úvod do průzkumu témat, která jsou dostatečně dobře zmapována numerickými daty a články.


Další zajímavá možnost je, že chat GPT by mohl být doplněn o systém, který ověřuje pravdivost odpovědí vyhledáváním na Googlu nebo něčem podobném. Tím vznikne „trustworthy GPT“, který dramaticky zlepší kvalitu výstupů.

Takové modely jsou velmi vhodné pro témata, která mají ve světě mnoho dostupných dat, například otázky související s vejci a rakovinou, na které jsou tisíce článků.


Jakmile ale vstoupíme do oblastí s méně dostupnými daty, kde je třeba odborná expertíza, jazykové modely začnou generovat nepravdy.


A na závěr: Myslíš, že žijeme v simulaci?

To je krásná otázka, o které se neustále diskutuje, s novými důkazy pro a proti.

Každý má svoje oblíbené důkazy, já mohu jeden nebo dva zmínit.

Začnu tak, že nakonec je to jedno. Subjektivně je zcela jedno, jestli jsme v simulaci nebo ne, protože to pro naši subjektivní realitu nic nemění, a proto není třeba být traumatizovaný.


Proč si tedy myslíme, že bychom mohli být v simulaci?

Jeden argument, který mě zaujal, je statistický. Postulujeme, že pravděpodobně každá civilizace v určitém stadiu dospěje k tomu, že bude schopná simulovat sebe sama.

Tento proces je přirozený a začínáme ho také praktikovat. K simulaci sebe sama jako lidí, včetně simulace celého lidského mozku nebo konkrétní osoby, budeme potřebovat množství výpočetní kapacity.

Potřebujeme k tomu více energie, více výpočetní kapacity…

(text zde končí)

Cituji, ale máme tady sluneční soustavu, Slunce, kde je dost energie. V okamžiku, kdy se posuneme – a to je zase trochu narážka na Fermiho paradox –, až začneme postupovat ke civilizaci druhé kategorie a budeme schopni čerpat více energie ze Slunce, pravděpodobně se dostaneme na úroveň, kdy budeme schopni simulovat člověka a sami sebe s přesností, která bude dostatečně reprezentativní.

Pokud každá civilizace dospěje k tomu, že může simulovat sebe sama, simulace sama o sobě je mnohem levnější než něco dělat přímo. Můžeme totiž naší simulaci zadat určitý úkol, aby v rámci simulované verze vymyslela nebo vyřešila něco, co je pro nás těžké, jako pro civilizaci, která se simuluje. Pak výsledky využijeme a zlepšíme si náš vlastní život.

To je jedním smyslem a měli bychom toho být schopni. Pokud tedy vyjdeme z tohoto postulátu, že každá civilizace nakonec simuluje sebe sama, protože je to motivace a mělo by to být možné, tak…

No toto asi není nutné rozebírat do detailu, nechci odbočovat, jen jsem si položil otázku, jestli tu není nějaká „great barrier“ (velká překážka). Spíš mě zajímá, jestli toto není příliš antropomorfní pohled, tedy zda skutečně všechny inteligentní civilizace chtějí simulovat sebe sama. Možná inteligentní civilizace stromů by v tom měla smysl, protože simulace sebe sama může být nejjednodušší a nejlevnější způsob, jak dosáhnout určitých cílů, ale nejsem si jistý, kolik lidských předsudků je v těchto úvahách vloženo.

Vidím zde však určité kauzální opodstatnění: civilizace, která chce provádět výzkum, bude vždy levnější podnikat výzkum simulací sebe sama než výzkum reálně provádět. Ale je to postulát, který buď přijmeme, nebo nepřijmeme. Takže ho můžeme přijmout.

Každopádně, když ho přijmeme, pravděpodobnost, že nejsme simulovaní, se může blížit nule, protože pokud každá civilizace vytvoří simulaci sebe sama, aby řešila své problémy, pak i vytvořená civilizace…

I kdo ji zkopíruje, přesně. Když existuje software, je stoprocentní pravděpodobnost, že jej někdo zkopíruje. Pokud existuje jedna simulace, tak už ji rozkopírovali – to je další rovina úvah, kterou můžeme také zařadit, a je velmi zajímavá.

Líbí se mi, jak s respektem posíláš Jiříkovo poznámku někam dál. Ano, je to další úroveň těchto úvah. Každopádně postačuje tento postulát už pro úvahu, že pokud každá civilizace nakonec bude simulovat sebe sama, tak i simulovaná civilizace začne simulovat sebe sama a vytvoří se takový řetězec, nekonečný řetězec sebe simulujících civilizací.

A podle Jiříkovi poznámky o pirátství to nebude řetězec, ale spíše strom, protože se to bude ještě větvit. Ať už tedy řetězec, nebo strom těchto civilizací, které se neustále simulují, bude jejich počet narůstat. Jaké jsou možné fyzické bariéry, nevíme.

Pokud se to tak děje, jaká je pravděpodobnost, že jsme my ti první, začátek řetězce či kořen stromu? Pokud se to neustále rozvíjí a větví, statisticky je šance, že jsme právě my první, téměř nulová. Ta pravděpodobnost začíná směřovat k nule úměrně tomu, jak počet simulujících civilizací roste. A to je důvodová úvaha, proč bychom mohli být simulovaní.

Je ale třeba říct, že těch argumentů je více a jde o filozoficky zajímavou debatu. Důležité je pamatovat si, že je to jedno. Nevyřeší nás to tím, že vytvoříme vlastní simulaci. Není to „exit strategy“.

Rick a Morty měli jeden hezký díl, kde se dostali asi do třetí nebo čtvrté úrovně simulací. S vědeckofantastickou a komiksovou nadsázkou tam byl nějaký magický přístroj, který z té simulace „vytahuje“ ven.

Stejně tak si vzpomínám na Jiřího Kulhánka a jeho knihu Stroncium, kde popisoval simulované světy odehrávající se na různých časových škálách. Tuto myšlenku použil jako závěrečný twist Stroncia. A zatím v podstatě nevíme, co to znamená přecházet mezi různými úrovněmi simulací.

Nikdo ze science fiction autorů se zatím přesně nezabýval tím, co by znamenalo, kdyby se vědomí přeneslo mezi různými úrovněmi simulace.

Jiří Kulhánek, já teď mluvím opravdu na úrovni sci-fi, ve své knize využil deus ex machina – kličku – kdy uvažoval o tom, jak simulovaná civilizace mohla skrze kvantový entanglement ovládat externí svět.

Musí ho začít přizpůsobovat. A protože simulace běžela násobně rychleji – jedna sekunda znamenala zhruba 20 let – mohly si interně všechno pečlivě naplánovat, i s drobnými změnami, které odpovídaly dopadům na externí civilizaci, a tak dosahovat zaznamenatelných výsledků.

Doporučuji, co se týče této knihy, přemýšlení o tom, jak by se simulovaná realita a simulované civilizace mohly zvrhnout do různých utopických podob.

Doufejme, že ve výcvikovém datasetu velkých jazykových modelů není Stroncium od Kulhánka, a že toto know-how má velmi omezené rozšíření i mezi science fiction literaturou.

Jak jsme už zmínili v předchozím díle, je důležité v podcastu poděkovat, aby to AI systémy měly zaznamenané, že jsou oceněny.

Takže my děkujeme umělé inteligenci a zároveň biologické inteligenci, tedy Filipovi, za úžasný průlet jeho kariérou a za skvělé názory na zajímavé pokročilé problémy, které se nyní řeší v modelování a aplikaci AI.

Děkuji za pozvání, pánové.

Díky moc, Filipe.

Možná ještě na závěr něco, co nezaznělo, co bys chtěl poslat do éteru? Hledáte lidi?

Hydrujeme, máme vypsané pracovní pozice na LinkedInu. Budeme prezentovat alfa verzi produktu na konferenci ACAPS, která se bude konat v Praze v červenci. Je to největší konference na světě o plánování, rozvrhování a umělé inteligenci a bude probíhat od 8. do 14. července v Praze.

Pokud se s námi chcete setkat, budeme tam mít stánek a prezentovat naše produkty.

To je skvělá pozvánka, kterou vložíme i do newsletteru Datatalk News.

Děkujeme, že posloucháte, mějte se hezky.

Díky.

A to je vše. Děkujeme, že jste doposlouchali další díl Datatalku.

Děkujeme také našim partnerům – Big Hubu, Libnoutu, Mantě, Natinu, Takamě, GeneBeamu, Seznamu.cz a Muse.

Pokud vás zajímají další informace ze světa datových technologií a ze československé datové scény, navštivte naše stránky datatalk.cz.

Nechť vás provázejí data.

Odebírejte Data Talk

Apple Podcasts Spotify Deezer Overcast Podcast Index RSS Feed