"# Přehled významných firem a jejich AI modelů (stav 2025)
| Firma / Organizace | Model / Řada modelů | Parametry / Kontext okno / Verze | Licence / otevřené váhy? | Výhody | Nevýhody / omezení |
|---|---|---|---|---|---|
| Alibaba | Qwen / Qwen2 / Qwen3 / Qwen-VL / Qwen-Max / Qwen-Next | Různé velikosti (7B – 235B), až 128K tokenů | Částečně open weights (Apache-2.0), top verze proprietární | Velká variabilita, silná vícejazyčnost, dobrá lokalizace | Transparentnost dat, top modely uzavřené, HW náročnost |
| Anthropic | Claude Opus 4, Claude Sonnet 4, Haiku, Claude 3.x řady | Kontext okno až ~200K tokenů | Proprietární | Důraz na bezpečnost, reasoning, agentní schopnosti | Cena, uzavřené váhy, závislost na API |
| Apple | Apple Foundation Models (součást Apple Intelligence) | Parametry neveřejné, lokální + cloud inference | Proprietární | On-device běh, soukromí, integrace do ekosystému Apple | Omezený HW support, netransparentní parametry |
| BigScience / HuggingFace | BLOOM, Pythia, MPT-7B a další OSS modely | BLOOM ~176B parametrů, standardní kontext (2-4K) | Open source | Transparentnost, multijazyčnost, přístupnost pro výzkum | Nižší výkon vs top proprietární, vyšší HW nároky u velkých verzí |
| DeepSeek (Čína) | DeepSeek-R1, DeepSeek-V3, DeepSeek-Coder | Verze 7B – 67B+, různé kontexty (4K–16K+) | Open weights / OSS licence | Výkon blízko top modelům, otevřenost, dobrý pro výzkum i praxi | Dokumentace méně robustní, HW náročné verze |
| EleutherAI / OSS komunita | GPT-NeoX-20B, GPT-J-6B, StableLM, další OSS modely | Do desítek B parametrů, menší kontexty než top modely | Open source | Ideální pro experimenty, levné lokální nasazení | Omezený výkon, multimodalita slabší, menší komunita |
| Google / DeepMind | Gemini 2.5 Pro, Gemini Flash, Gemma 3, Gemma 2, T5-Gemma | Gemma řada různé velikosti, až 128K tokenů | Gemma – open weights, Gemini proprietární | Multimodalita (Gemini), open weights (Gemma), silný výzkum | Gemini drahé, API-locked, Gemma menší výkon oproti top |
| Huawei | PanGu Σ, Ultra, Pro, Embedded, PanGu-Σ (MoE) | 135B – 1T+ parametrů, multimodalita | Proprietární | Silné kapacity, průmyslové využití, velké modely | Geopolitická omezení, HW náročnost, uzavřené |
| Meta | LLaMA 2/3/4 (Scout, Maverick, Behemoth) | 7B – 405B parametrů, velká kontextová okna | Open weights (s licenčními podmínkami) | Široká komunita, variabilní verze, dobrý poměr výkon/zdroje | Licence restriktivní, velké HW nároky |
| Microsoft | Phi-3, Phi-3.5, Phi-4, Phi-4-mini | Od ~3B do ~14B parametrů, kontext do 128K tokenů | Open weights (vybrané verze) | Dobré na menší úlohy, open weights, efektivita | Nejsou top-tier vs GPT/Claude, omezené multimodální schopnosti |
| Mistral AI (Francie) | Mistral 7B/8B, Mixtral 8x7B, Codestral, Voxtral | 7B – 22B param., Mixtral MoE, různé kontexty | Open weights (část), velké verze proprietární | Efektivní, dostupné pro menší týmy, silná pozice v Evropě | Chybí top reasoning u menších verzí, některé funkce jen v API |
| Moonshot AI (Čína) | Kimi K2, Kimi-VL, Kimi-Dev-72B | Až ~1T parametrů (MoE), kontext 128K–256K tokenů | Část open weights, část proprietární | Velké kontextové okno, vysoký výkon, MoE architektura | Vysoké HW nároky, dokumentace omezená, některé verze placené |
| NVIDIA | TensorRT-LLM, ReDrafter, frameworky + spolupráce na LLM | Neveřejné vlastní velké modely; frameworky optimalizace | Frameworky často OSS | Optimalizace inferencí, GPU podpora, nízká latence | Sama nevydává velké LLM (spíše partnerství), nutnost GPU ekosystému |
| OpenAI | GPT-5, GPT-4.1, GPT-4, GPT-4o | Parametry neveřejné; kontext okno až 1M tokenů | Proprietární | Špičková kvalita, multimodalita, široká adopce | Cena, uzavřený ekosystém |
| xAI (Elon Musk) | Grok-4 (Heavy), Grok-3, Grok-2, Grok-code-fast-1, image modely | Kontext až 256K tokenů u některých verzí | Smíšené – část open weights, nové verze proprietární | Velká okna, různé varianty výkon/cena, zaměření na kód + reasoning | Uzavřenost novějších verzí, vyšší cena, tréninková data netransparentní |
Vysvětlivky pojmů
Proprietární
Model je uzavřený, váhy ani tréninková data nejsou veřejně dostupné. Používá se jen přes oficiální API nebo služby poskytovatele.
Příklad: GPT-4 od OpenAI, Claude od Anthropic.Open Source (OSS)
Zdrojový kód i modelové váhy jsou volně dostupné pod otevřenou licencí. Každý může model stáhnout, spustit a upravovat, často i komerčně.
Příklad: BLOOM od BigScience, některé verze Qwen.Open Weights (otevřené váhy)
Váhy modelu jsou zveřejněny, takže si ho lze stáhnout a spustit lokálně. Ne vždy jde ale o plně „open source“ – licence může mít omezení (např. zákaz použití pro určité účely).
Příklad: LLaMA od Meta, Gemma od Google.MoE (Mixture of Experts)
Architektura, kdy se pro konkrétní úlohu aktivuje jen část modelu (několik „expertů“ z celku). Díky tomu je inference rychlejší a levnější při zachování výkonu velkého modelu.
Příklad: Mixtral 8x7B od Mistral AI, DBRX od Databricks.Kontextové okno
Maximální délka textu (v tokenech), se kterou model dokáže pracovat najednou. Čím větší kontext, tím více informací model „vidí“ současně.
Příklad: GPT-4o až 1M tokenů, Grok-4 Heavy 256K tokenů.
"