Rabbyte vize budoucnosti

10 minut

2026-01-07

Budoucnost není o dalším SaaS s AI. Budoucnost je o více klientech využívajících širokou škálu modelů. Jediné, co potřebují, je schopnost využívat správný kontext.

Naším cílem je vytvořit platformu pro business kontext. Ústředním požadavkem distribuovaného nástrojového řetězce je poskytnout jakémukoli LLM adekvátní kontext, aby byla maximalizována jeho schopnost pracovat „pro vás“ nebo „s vámi“.

Nastínění okolností

Projděme si několik kroků, které můžeme vidět v praxi; pokud dojdete ke stejnému závěru, bude to základ pro naši současnou i budoucí práci.

Zmínka o LLM buď vzbudila váš zájem, nebo vyvolala naprosté znechucení (nedivím se vám, všude je kolem toho příliš mnoho hypu). Jedna věc je jasná: LLM nikam nezmizí a abychom je mohli efektivně využívat, musíme se tomuto nástroji přizpůsobit.

Začněme tím, jaká může být vaše zkušenost. Možná jste programátor, který napíše celou aplikaci najednou pomocí Opus 4.5, nebo programátor, který nedokáže LLM přimět, aby správně provedl jedinou změnu v řádku. Možná tvrdíte, že ChatGPT 5.1 je mnohem lepší než ChatGPT 5.2, zatímco jiní nemohou o Gemini 2.5 Flash říct jediné špatné slovo.

Co nám to říká? Máme dvě proměnné: model a kontext.

Pojďme se zabývat otázkou modelu

Různé modely jsou vhodné pro různé úkoly. Nejde jen o to, že „poskytovatelé“ používají nejnovější model od OpenAI, Anthropic nebo Google. Ptám se, zda je síla modelu dostatečná pro tento úkol. Koho to zajímá. Pojďme vše vsadit na nejnovější modely, že? PENÍZE, RYCHLOST. Pokud jste nezkusili použít API pro LLM, možná nevíte, o kolik levnější a rychlejší mohou být „hloupější“ modely, které přesto dokážou perfektně vykonávat požadované úkoly.

Proč tedy někteří lidé dosahují skvělých výsledků s levnějšími, „hloupějšími“ modely, zatímco vy možná bojujete s základem? Vše je o kontextu! Poskytněte dostatek informací, ochranných opatření a nástrojů, abyste zajistili co nejvyšší úspěšnost.

Modely musí být zaměnitelné; je nezbytné poskytnout správný kontext a jeho odpovídající množství.

A co MCP?

Bylo kolem toho tolik hypu, i když se jedná doslova o „hostované nástroje“, které možná již znáte, pokud jste pracovali s agenty. To vedlo mnoho společností k zavedení MCP pro jejich API, což je povzbudivé.

Mění to způsob, jakým komunikujete s LLM. Jako koncový spotřebitel si můžete položit jednoduchou otázku: kde budete s MCP nejčastěji komunikovat? Je to desktopová aplikace ChatGPT, Claude Desktop a Cursor. Nechme to zatím tak a za chvíli se k tomu vrátíme.

Proč o tom všem mluvím?

Při pohledu na to, co dělají nejnovější startupy, se rýsuje téměř opačný obraz. Každá společnost se snaží integrovat svůj vlastní „chat“ do aplikací – různé souhrny, analýzy atd.

S tímto přístupem mám několik výhrad.

Nevíte, jaký model se používá. Dostanete umělý počet „kreditů“ na použití, které si můžete dokoupit. Nemáte tušení, kolik kreditů vlastně potřebujete. Je prakticky nemožné vyjádřit počet akcí a jejich skutečné náklady v dolarech. Co když to, co od „AI chatu“ potřebujete, je mnohem jednodušší a zvládne to menší, levnější model? Platíte „prémii“ za téměř základní/jednoduché úkoly? Pro uživatele není transparentní. Všechny tyto společnosti však přepínají mezi modely a upravují ceny na krátkou dobu, protože je obtížné přesně vypočítat marže na uživatele, jakmile začne používání LLM.

Katalog modelů se každý měsíc rozšiřuje a ceny se liší. Pokud jste majitelem firmy, který se chystá začít využívat LLM pro konkrétní úkoly, může vám tato nepředvídatelnost připadat nepříjemná. Firmy si cení schopnosti předvídat provozní náklady. BYOK je správná volba.

Možná si říkáte: „To mi je jedno, mám hluboké kapsy.“ Pojďme se přesunout k další otázce. Vzhledem k tomu, jak důležitý je kontext, jak jej tyto produkty poskytnou? Jednoduchý příklad: vyvíjíme webovou aplikaci. Máme analytiky, designéry UI/UX, programátory a několik projektových manažerů. Pro úkoly použijeme Jira, pro správu verzí GitLab, pro dokumentaci Confluence a pro design Figma. Někteří programátoři, se kterými spolupracujete, používají ClaudeCode, někteří Codex a jiní OpenCode.

Naším cílem je maximalizovat schopnosti každého LLM pro každou roli, abychom zvýšili produktivitu. Kde vůbec začít? Máte několik produktů, všechny s „AI“, všechny se svými přednostmi. Dokumentace čehokoli byla v minulosti nejvíce opomíjenou částí každého projektu.

Vše je o kontextu!

Je téměř nemožné poskytnout přesný kontext, když jsou neúplná data rozptýlena napříč několika systémy, které spolu nekomunikují, jsou stěží integrovatelné a všechny vás nutí používat jejich vlastní AI chat. Některé mohou mít MCP (zpět k MCP), jiné budou samy hostovány za VPN. Kdo ví, jestli vůbec nějaký MCP funguje? Je to bolehlav a ještě jsme ani neuvažovali o vytvoření vlastního interního systému, který by pravděpodobně nebyl integrován s 15 různými produkty a neposkytoval MCP.

Je důležité pochopit, jak průměrný člověk již s LLM komunikuje. Platí za předplatné a používá jej prostřednictvím desktopové/mobilní/webové aplikace. Nemůže jej maximálně využít pro svá vlastní data, pokud nezaplatí za více SaaS platforem, které vystavují MCP.

Měli byste vidět obrázek stejně jasně jako my v Rabbyte.

Jak se pokoušíme tento problém vyřešit?

Začněme jádrem: jedná se o jednoduchou webovou aplikaci s propojením pro balíčky, odesílání událostí, webhooky, oprávnění, API a MCP.

Samo o sobě nic nedělá; mělo by sloužit pouze jako základ pro náš budoucí vývoj, na kterém se snad budete podílet. Primitivy, které zajišťují konzistenci dat. Logika obchodní domény, díky které můžete opustit Excel. Konektory k externím aplikacím, které formátují data, aby přinesly kontext do jiných aplikací.

Vše je připraveno k použití LLM a klientem, který je kompatibilní s MCP. Průměrný člověk by měl být schopen komunikovat se všemi svými daty pomocí jednoduché integrace. To ale nebude stačit; samozřejmě potřebujeme kulturní změnu, kdy nebudeme provádět úkoly, ale shromažďovat, strukturovat a udržovat informace.