Přehled významných firem a jejich AI modelů (stav 2025)

Přehled významných firem a jejich AI modelů (stav 2025) plus výhody, parametry, licence atd..

05.11.2025 47 0

"# Přehled významných firem a jejich AI modelů (stav 2025)

Firma / Organizace Model / Řada modelů Parametry / Kontext okno / Verze Licence / otevřené váhy? Výhody Nevýhody / omezení
Alibaba Qwen / Qwen2 / Qwen3 / Qwen-VL / Qwen-Max / Qwen-Next Různé velikosti (7B – 235B), až 128K tokenů Částečně open weights (Apache-2.0), top verze proprietární Velká variabilita, silná vícejazyčnost, dobrá lokalizace Transparentnost dat, top modely uzavřené, HW náročnost
Anthropic Claude Opus 4, Claude Sonnet 4, Haiku, Claude 3.x řady Kontext okno až ~200K tokenů Proprietární Důraz na bezpečnost, reasoning, agentní schopnosti Cena, uzavřené váhy, závislost na API
Apple Apple Foundation Models (součást Apple Intelligence) Parametry neveřejné, lokální + cloud inference Proprietární On-device běh, soukromí, integrace do ekosystému Apple Omezený HW support, netransparentní parametry
BigScience / HuggingFace BLOOM, Pythia, MPT-7B a další OSS modely BLOOM ~176B parametrů, standardní kontext (2-4K) Open source Transparentnost, multijazyčnost, přístupnost pro výzkum Nižší výkon vs top proprietární, vyšší HW nároky u velkých verzí
DeepSeek (Čína) DeepSeek-R1, DeepSeek-V3, DeepSeek-Coder Verze 7B – 67B+, různé kontexty (4K–16K+) Open weights / OSS licence Výkon blízko top modelům, otevřenost, dobrý pro výzkum i praxi Dokumentace méně robustní, HW náročné verze
EleutherAI / OSS komunita GPT-NeoX-20B, GPT-J-6B, StableLM, další OSS modely Do desítek B parametrů, menší kontexty než top modely Open source Ideální pro experimenty, levné lokální nasazení Omezený výkon, multimodalita slabší, menší komunita
Google / DeepMind Gemini 2.5 Pro, Gemini Flash, Gemma 3, Gemma 2, T5-Gemma Gemma řada různé velikosti, až 128K tokenů Gemma – open weights, Gemini proprietární Multimodalita (Gemini), open weights (Gemma), silný výzkum Gemini drahé, API-locked, Gemma menší výkon oproti top
Huawei PanGu Σ, Ultra, Pro, Embedded, PanGu-Σ (MoE) 135B – 1T+ parametrů, multimodalita Proprietární Silné kapacity, průmyslové využití, velké modely Geopolitická omezení, HW náročnost, uzavřené
Meta LLaMA 2/3/4 (Scout, Maverick, Behemoth) 7B – 405B parametrů, velká kontextová okna Open weights (s licenčními podmínkami) Široká komunita, variabilní verze, dobrý poměr výkon/zdroje Licence restriktivní, velké HW nároky
Microsoft Phi-3, Phi-3.5, Phi-4, Phi-4-mini Od ~3B do ~14B parametrů, kontext do 128K tokenů Open weights (vybrané verze) Dobré na menší úlohy, open weights, efektivita Nejsou top-tier vs GPT/Claude, omezené multimodální schopnosti
Mistral AI (Francie) Mistral 7B/8B, Mixtral 8x7B, Codestral, Voxtral 7B – 22B param., Mixtral MoE, různé kontexty Open weights (část), velké verze proprietární Efektivní, dostupné pro menší týmy, silná pozice v Evropě Chybí top reasoning u menších verzí, některé funkce jen v API
Moonshot AI (Čína) Kimi K2, Kimi-VL, Kimi-Dev-72B Až ~1T parametrů (MoE), kontext 128K–256K tokenů Část open weights, část proprietární Velké kontextové okno, vysoký výkon, MoE architektura Vysoké HW nároky, dokumentace omezená, některé verze placené
NVIDIA TensorRT-LLM, ReDrafter, frameworky + spolupráce na LLM Neveřejné vlastní velké modely; frameworky optimalizace Frameworky často OSS Optimalizace inferencí, GPU podpora, nízká latence Sama nevydává velké LLM (spíše partnerství), nutnost GPU ekosystému
OpenAI GPT-5, GPT-4.1, GPT-4, GPT-4o Parametry neveřejné; kontext okno až 1M tokenů Proprietární Špičková kvalita, multimodalita, široká adopce Cena, uzavřený ekosystém
xAI (Elon Musk) Grok-4 (Heavy), Grok-3, Grok-2, Grok-code-fast-1, image modely Kontext až 256K tokenů u některých verzí Smíšené – část open weights, nové verze proprietární Velká okna, různé varianty výkon/cena, zaměření na kód + reasoning Uzavřenost novějších verzí, vyšší cena, tréninková data netransparentní

Vysvětlivky pojmů

  • Proprietární
    Model je uzavřený, váhy ani tréninková data nejsou veřejně dostupné. Používá se jen přes oficiální API nebo služby poskytovatele.
    Příklad: GPT-4 od OpenAI, Claude od Anthropic.

  • Open Source (OSS)
    Zdrojový kód i modelové váhy jsou volně dostupné pod otevřenou licencí. Každý může model stáhnout, spustit a upravovat, často i komerčně.
    Příklad: BLOOM od BigScience, některé verze Qwen.

  • Open Weights (otevřené váhy)
    Váhy modelu jsou zveřejněny, takže si ho lze stáhnout a spustit lokálně. Ne vždy jde ale o plně „open source“ – licence může mít omezení (např. zákaz použití pro určité účely).
    Příklad: LLaMA od Meta, Gemma od Google.

  • MoE (Mixture of Experts)
    Architektura, kdy se pro konkrétní úlohu aktivuje jen část modelu (několik „expertů“ z celku). Díky tomu je inference rychlejší a levnější při zachování výkonu velkého modelu.
    Příklad: Mixtral 8x7B od Mistral AI, DBRX od Databricks.

  • Kontextové okno
    Maximální délka textu (v tokenech), se kterou model dokáže pracovat najednou. Čím větší kontext, tím více informací model „vidí“ současně.
    Příklad: GPT-4o až 1M tokenů, Grok-4 Heavy 256K tokenů.

"

Rate this post
Comments (0)
Add comment
Comment will be displayed after approval by administrator.

No comments yet. Be the first!