Vissza a blogra
LLMModellválasztásGPTClaudeGeminiLlamaVállalati AI

A 2026-os LLM piac térképe — Szereplők, árak és a 6 döntési dimenzió

ÁZ&A
Ádám Zsolt & AIMY
||17 perc

Ez a cikk az LLM Modellválasztás Üzleti Döntései tanulmány 1. része. További részek: Feladatalapú modellválasztás és benchmark-ok, Költségoptimalizálás és routing stratégia, Biztonság, lokális modellek és döntési mátrix.


Miért stratégiai döntés a modellválasztás?

Az LLM modellválasztás nem technikai kuriózum — a vállalat teljes AI stratégiáját meghatározza. A döntés kihat:

  • A költségekre: A legdrágább és legolcsóbb modell között 100x árkülönbség van (o3: $60/1M output token vs. Gemini 2.0 Flash: $0.40)
  • A teljesítményre: Amit az egyik modell kiválóan old meg (kódelemzés), azt a másik gyengén (komplex reasoning)
  • A sebességre: Egy valós idejű chatbotnál a latency kritikus — a modellválasztás 500ms vs. 5s különbséget jelent
  • Az adatvédelemre: Cloud API vs. lokális futtatás alapvetően más adatkezelési kockázatot jelent
  • A vendor lock-in kockázatra: Egyetlen modellre építés → kiszolgáltatottság

A CTO feladata: nem a „legjobb" modellt választani, hanem a feladathoz legjobban illő modellt, a megfelelő költségen, elfogadható kockázattal.


A szereplők — Ki mit tud 2026-ban?

Tier 1 — Frontier modellek

OpenAI

Modell Kontextus Erősség Gyengeség Ár (input/output per 1M token)
o3 200K Legjobb reasoning, matematika, kód Nagyon drága, lassú $10 / $60
o4-mini 200K Jó reasoning, alacsonyabb ár Kevésbé kreatív $1.10 / $4.40
GPT-4o 128K Legjobb all-round, jó tool calling Drágább a mini-nél $2.50 / $10
GPT-4o-mini 128K Legjobb ár/érték, gyors, jó magyar Gyengébb complex reasoning $0.15 / $0.60
GPT-4.1 1M Kódolás, hosszú kontextus, instrukció-követés Új, kevésbé tesztelt $2 / $8
GPT-4.1-mini 1M Kiváló ár/teljesítmény, 1M kontextus Komplex reasoning limitált $0.40 / $1.60

Ökoszisztéma-előny: Legnagyobb API infrastruktúra, legjobb tooling (Assistants API, Batch API, Fine-tuning), Azure integráció. Az OpenAI a vállalati piacon is domináns — a Microsoft Azure-on keresztül elérhető modellek GDPR-kompatibilis EU régióból is futtathatók, ami a legtöbb európai vállalat számára kritikus szempont.

Anthropic

Modell Kontextus Erősség Gyengeség Ár (input/output per 1M token)
Claude 4 Opus 200K Csúcskategóriás reasoning és kreativitás Nagyon drága, lassabb $15 / $75
Claude 3.7 Sonnet 200K Kiváló reasoning + extended thinking Közepes ár $3 / $15
Claude 3.5 Haiku 200K Gyors, olcsó, jó minőség Gyengébb komplex feladatoknál $0.80 / $4

Differenciátor: Alkotmány-alapú AI (Constitutional AI), kiemelkedő safety, nagyon jó a hosszú dokumentumok feldolgozásában. Az Anthropic a biztonságot a termékfejlesztés központi elemévé tette — a Claude modellek kevésbé hajlamosak hallucináció-ra és a válaszok konzisztensebbek magas tétű feladatoknál (jogi elemzés, compliance).

Google

Modell Kontextus Erősség Gyengeség Ár (input/output per 1M token)
Gemini 2.5 Pro 1M Natív multimodális (kép+szöveg+videó+kód), óriási kontextus Tool calling kevésbé megbízható $1.25 / $10
Gemini 2.0 Flash 1M Nagyon gyors, nagyon olcsó, multimodális Egyszerűbb reasoning $0.10 / $0.40

Differenciátor: 1M token kontextus, natív multimodalitás, a legolcsóbb high-quality modell (Flash), Google Cloud integráció. A Gemini különösen erős ott, ahol nagy mennyiségű dokumentumot, képet vagy videót kell egyszerre feldolgozni — és mindezt a piacon elérhető legversenyképesebb áron teszi.

Tier 2 — Az erős kihívók

Modell Erősség Ár (input/output per 1M token)
Mistral Large 2 EU-alapú, erős kód és reasoning $2 / $6
Mistral Small EU, gyors, jó ár/érték $0.10 / $0.30
DeepSeek-V3 Kínai, benchmark-szinten frontier $0.27 / $1.10
Cohere Command R+ RAG-ra optimalizált, vállalati fókusz $2.50 / $10

Tier 3 — Nyílt modellek (lokálisan futtatható)

Modell Paraméter Erősség Hardware igény
Llama 3.3 (Meta) 70B Legjobb nyílt modell, szabad licensz 1-2× A100 GPU vagy quantized: RTX 4090
Llama 4 Scout (Meta) 109B (17B aktív MoE) Multimodális, 10M kontextus 1× H100 vagy quantized
Mistral 7B 7B Lokális futtatás akár CPU-n 16GB RAM, nincs GPU szükséges
Phi-4 (Microsoft) 14B Kiváló reasoning a méretéhez képest 1× RTX 3090+
Qwen 2.5 (Alibaba) 72B Többnyelvű, jó magyar 1-2× A100

A 6 döntési dimenzió

Minden modellválasztást 6 dimenzió mentén kell értékelni. Ezek a dimenziók egymással összefüggnek — a feladat komplexitása meghatározza a latency elvárásokat, a költségérzékenység befolyásolja a modellválasztást, és az adatvédelmi kockázat szűkítheti az opciókat. A 6 dimenzió együttes mérlegelése az, ami a stratégiai döntést megalapozza.

1. Feladat komplexitása

Szint Példa Modell-igény
Egyszerű FAQ válasz, emlékeztető, összefoglalás GPT-4o-mini, Gemini Flash, Haiku
Közepes Email draft, CRM keresés, tool calling GPT-4o, Claude Sonnet, GPT-4.1-mini
Komplex Pipeline elemzés, churn predikció, multi-step reasoning o3, Claude 4 Opus, Gemini 2.5 Pro

2. Latency (válaszidő)

Igény Limit Modell-ajánlás
Valós idejű chat < 1s TTFT (Time to First Token) GPT-4o-mini, Gemini Flash, Haiku
Interaktív < 3s TTFT GPT-4o, Claude Sonnet
Background task Mindegy o3, Claude Opus (legjobb minőség)

3. Költségérzékenység

Havi 1.000 interakció, átlag 2K token/interakció:

Modell Havi költség Relatív
Gemini 2.0 Flash ~$1 1x
GPT-4o-mini ~$1.5 1.5x
GPT-4.1-mini ~$4 4x
Claude 3.5 Haiku ~$10 10x
GPT-4o ~$25 25x
Claude 3.7 Sonnet ~$36 36x
o3 ~$140 140x

4. Nyelvi képesség (magyar)

Modell Magyar nyelvi minőség Megjegyzés
GPT-4o / 4o-mini Legjobb magyar, fluens, pontos
Claude 3.7 Sonnet Jó, de az angoltól néha elmarad
Gemini 2.0 Flash Jó, de tool calling magyarral gyengébb
Mistral Large 2 Meglepően jó, francia AI → jó EU nyelvek
Llama 3.3 70B Elfogadható, fine-tuninggal javítható
Mistral 7B Gyenge magyar, angolra optimalizált

5. Tool calling megbízhatóság

Modell Tool calling minőség Megjegyzés
GPT-4o Iparági benchmark, paralel tool call támogatás
GPT-4o-mini Megnövekedett megbízhatóság a 4o-hoz képest is
Claude 3.7 Sonnet Jó, de néha eltér az OpenAI formátumtól
Claude 3.5 Haiku Stabil, de egyszerűbb tool-szekvenciáknál
Gemini 2.5 Pro Javuló, de produkcióban olykor unpredictable
Gemini 2.0 Flash Alap tool calling OK, komplex szekvencia bizonytalan
Llama 3.3 Működik, de dedikált fine-tuning nélkül megbízhatatlan

6. Adatvédelmi kockázat

Modell / Platform Adat hova megy? DPA EU rezidencia
OpenAI API OpenAI US szerverei Igen Nem (≠ Azure)
Azure OpenAI Azure régió (pl. EU West) Igen Igen
Anthropic API AWS US szerverei Igen Nem
Google Vertex AI GCP régió (pl. EU) Igen Igen
Mistral Le Platforme FR / EU szerverei Igen Igen
Lokális (Ollama) Saját szerver N/A Igen (teljes kontroll)

A sorozat következő részében konkrét feladattípusokhoz rendeljük a modelleket, és megnézzük mit mondanak a benchmark-ok. Olvassa el: Feladatalapú modellválasztás és benchmark-ok. Vagy tekintse meg a teljes tanulmányt: LLM Modellválasztás Üzleti Döntései.

Megosztás:
Vissza a blogra