Vissza a blogra
Provider-agnosztikusAI architektúraVendor lock-inOpenAIAnthropicEnterprise AI

Provider-agnosztikus AI Architektúra — Hogyan Ne Ragadjunk Le Egyetlen AI Szolgáltatónál?

ÁZ&A
Ádám Zsolt & AIMY
||15 perc

1. Miért kritikus a provider-függetlenség?

A vendor lock-in csapda

Képzeljük el a következő helyzetet: a vállalkozásunk AI asszisztensét az OpenAI GPT-4o modelljére építettük. Minden prompt, minden tool-definíció, minden API hívás az OpenAI formátumot használja. Három hónapig remekül működik — aztán ez történik:

  • Áremelés: Az OpenAI 40%-kal emeli az API árait (megtörtént 2024-ben a régebbi modellekkel)
  • Szolgáltatáskiesés: A GPT-4 API 6 órára elérhetetlenné válik (történt 2024 júniusában — az összes rá épülő rendszer leállt)
  • Jobb alternatíva jelenik meg: A Claude 3.5 Sonnet bizonyos feladatokban felülmúlja a GPT-4o-t, de mi nem tudunk váltani, mert minden „bele van drótozva"
  • Szabályozási változás: Az EU AI Act új követelményt hoz, amelyet a jelenlegi szolgáltatónk nem tud teljesíteni

Ha a rendszerünk egyetlen providertől függ, mindegyik forgatókönyv üzleti kockázat: a váltás hetek-hónapok fejlesztési munkát jelent.

A megoldás: az adapter réteg

A provider-agnosztikus architektúra azt jelenti, hogy a rendszerünk nem közvetlenül az OpenAI-val, a Claude-dal vagy a Gemini-vel beszél, hanem egy köztes rétegen — az adapteren — keresztül. Ez az adapter lefordítja az egységes belső formátumot az adott szolgáltató nyelvére, és vissza.

Az eredmény: a szolgáltatóváltás nem hónapok fejlesztése, hanem egy konfigurációs beállítás módosítása.


2. Az AI szolgáltató piac 2026-ban — Ki kicsoda?

A három nagy — és ami mögöttük van

Szolgáltató Modell családok Erősség Gyengeség Ár (1M token, input)
OpenAI GPT-4o, GPT-4o-mini, o1, o3 Legnagyobb ökoszisztéma, legjobb tool calling Zártkódú, US-centrikus adatkezelés $0.15–$15
Anthropic Claude 3.5 Sonnet/Haiku, Claude 4 Kiváló reasoning, hosszú kontextus (200K), erős safety Kisebb ökoszisztéma, drágább $0.25–$15
Google Gemini 2.0 Flash/Pro Multimodális (kép+szöveg+videó), nagyon olcsó Tool calling éretlen, EU compliance kérdéses $0.08–$7

A felzárkózók

Szolgáltató Modellcsalád Jellemző
Mistral Mistral Large, Pixtral Európai (francia), EU adatrezidencia, nyílt súlyok
Meta Llama 3.3, Llama 4 Nyílt forráskódú, lokálisan futtatható, nulla API költség
Cohere Command R+ Vállalati fókusz, RAG-ra optimalizált
xAI Grok Valós idejű adathozzáférés

A piaci dinamika, amit a CEO-nak tudnia kell

2024: Az OpenAI uralja a piacot (~65% market share az üzleti API-ban) 2025: Az Anthropic jelentősen felzárkózik; a Claude 3.5 Sonnet sok benchmark-ban vezet 2026: Háromszereplős verseny (OpenAI, Anthropic, Google) + a nyílt modellek (Llama, Mistral) egyre versenyképesebbek

A következmény: Aki ma egyetlen providerre épít, az a leggyorsabban változó technológiai piacon dobja el a választás szabadságát. A provider-agnosztikus architektúra stratégiai biztosíték — nem technikai nyalánkság.


3. Hogyan működik a provider-agnosztikus architektúra?

Nem kell fejlesztőnek lenni ahhoz, hogy megértsük az alapelvet. Gondoljunk rá így:

Az USB analógia

Emlékezünk, amikor minden telefongyártónak saját töltője volt? Nokia, Samsung, Sony Ericsson — mindegyiknek más csatlakozó. Aztán jött az USB-C, és egyetlen kábellel bármelyik készüléket tölthetjük.

A provider-agnosztikus AI architektúra az AI világának USB-C szabványa: egyetlen belső formátum, amely bármely külső szolgáltatóval kompatibilis.

A 4 réteg

┌──────────────────────────────────────────┐
│  ÜZLETI LOGIKA                           │
│  CRM, naptár, email, ügyfélkezelés       │
│  (nem tud az AI szolgáltatóról)          │
├──────────────────────────────────────────┤
│  ADAPTER RÉTEG                           │
│  Lefordítja a belső formátumot a         │
│  szolgáltató nyelvére és vissza          │
├────────────┬─────────────┬───────────────┤
│  OpenAI    │  Anthropic  │  Google       │
│  Adapter   │  Adapter    │  Adapter      │
├────────────┼─────────────┼───────────────┤
│  GPT-4o    │  Claude 3.5 │  Gemini 2.0   │
│  GPT-4o-   │  Sonnet /   │  Flash /      │
│  mini      │  Haiku      │  Pro          │
└────────────┴─────────────┴───────────────┘

Hogyan működik a gyakorlatban:

  1. A rendszer belül mindig ugyanazt a formátumot használja (üzenetek, eszköz-definíciók, válaszok)
  2. Amikor AI-t kell hívni, a megfelelő adapter lefordítja a kérést a kiválasztott szolgáltató formátumára
  3. A szolgáltató válaszát az adapter visszafordítja a belső formátumra
  4. Az üzleti logika semmit nem tud arról, hogy melyik AI szolgáltatóval történt a kommunikáció

Példa: ugyanaz a kérdés, három szolgáltató

Az ügyfél azt kérdezi: „Mikor van a következő szabad időpontom?"

A rendszer:

  1. Felismeri a szándékot → meghívja a naptár-keresés eszközt
  2. Megkapja az eredményt → elküldi az AI-nak összefoglalásra
  3. Az AI természetes nyelven válaszol

A felhasználó számára nincs különbség, akár GPT-4o-mini, akár Claude Haiku, akár Gemini Flash válaszol. Az adapter réteg biztosítja, hogy az eszközhívások, az üzenetformátum és a válasz struktúra mindig azonos legyen.

A tool calling probléma — megoldva

Az AI eszközök (tool calling / function calling) a legbonyolultabb rész, mert minden szolgáltató másként definiálja őket:

OpenAI Anthropic Google
Eszköz definíció {type: 'function', function: {name, parameters}} {name, input_schema} {functionDeclarations: [...]}
Eszközhívás jelzése tool_calls tömb tool_use content block functionCall objektum
Eredmény visszaadása tool role message tool_result content block functionResponse

A provider-agnosztikus rendszer egyszer definiálja az eszközöket (belső formátumban), és minden adapter automatikusan lefordítja a saját szolgáltatója nyelvére. Új eszköz hozzáadásakor nem kell 3 különböző formátumot karbantartani — csak egyet.


4. Konkrét üzleti forgatókönyvek

4.1 Forgatókönyv: Költségoptimalizáció

Helyzet: Egy 30 fős ügynökség havi 2.000 EUR-t költ OpenAI API-ra.

A provider-agnosztikus megoldás:

  • A rutin feladatokat (ügyfél-keresés, összefoglalás, emlékeztető) átirányítják a GPT-4o-mini-re (10x olcsóbb)
  • Az összetett elemzéseket (pipeline forecast, churn prediction) a Claude 3.5 Sonnet-re irányítják (jobb reasoning)
  • A multimodális feladatokat (képes termék-felismerés) a Gemini 2.0 Flash-re (olcsó, multimodális)

Eredmény: Ugyanaz a minőség, havi 800 EUR helyett (60%-os megtakarítás) — mert minden feladathoz az optimális ár/teljesítmény szolgáltatót használják.

4.2 Forgatókönyv: Szolgáltatáskiesés kezelése

Helyzet: Az OpenAI API 3 órára elérhetetlenné válik egy csúcsidőszakban.

Provider-specifikus rendszer esetén: Az AI funkciók 3 órára leállnak. Az ügyfélszolgálati chat sötétbe borul, az automatikus emlékeztetők nem mennek ki, a munkatársak manuálisan dolgoznak.

Provider-agnosztikus rendszer esetén: A konfigurációban átváltunk Claude-ra → 5 perc alatt minden működik tovább. Az ügyfelek semmit nem észlelnek. Sőt, automatizálható: ha az elsődleges provider nem válaszol 10 másodpercen belül, automatikusan a tartalék lép be.

4.3 Forgatókönyv: EU szabályozási megfelelés

Helyzet: A vállalkozás egészségügyi adatokat is kezel. Az EU AI Act és a GDPR megköveteli, hogy az adatok EU területen maradjanak.

A provider-agnosztikus megoldás:

  • Alapértelmezett: Azure OpenAI (EU West régió) — EU adatrezidencia, Microsoft DPA
  • Alternatíva: Mistral (francia, EU-alapú) — az adatok soha nem hagyják el az EU-t
  • Harmadik opció: Ollama + Llama 3.3 (lokális) — az adat nem hagyja el a saját szervert

A rendszer konfigurációval válthat bármelyikre — nincs kódváltoztatás.

4.4 Forgatókönyv: Multi-tenant SaaS

Helyzet: Egy SaaS platform több vállalkozásnak nyújt AI szolgáltatást (pl. szépségszalonok, klinikák, ügyvédi irodák).

A provider-agnosztikus megoldás lehetővé teszi, hogy minden ügyfél (tenant) kiválassza a saját AI szolgáltatóját. Egy beállítás az adatbázisban:

Ügyfél Provider Modell Miért?
Szépségszalon Budapest OpenAI GPT-4o-mini Legjobb ár/érték magyar nyelvhez
Orvosi rendelő Azure OpenAI EU GPT-4o EU adatrezidencia kötelező
Nemzetközi ügynökség Anthropic Claude Sonnet Legjobb reasoning az elemzésekhez

A platform kódja ugyanaz — a konfigurációban van a különbség.


5. ROI — Mennyit ér a szabadság?

A közvetlen megtakarítás

Feladatalapú modell-routing: Ha a feladat egyszerű (összefoglalás, keresés, emlékeztető), a rendszer automatikusan az olcsóbb modellt választja. Ha komplex (elemzés, javaslat, döntéstámogatás), a drágábbat.

Modell Egyszerű feladat (1K token) Komplex feladat (5K token)
GPT-4o-mini $0.0004 $0.004
GPT-4o $0.005 $0.052
Claude 3.5 Haiku $0.0006 $0.005
Claude 3.5 Sonnet $0.006 $0.078

Ha a kérések 70%-a egyszerű és 30%-a komplex, az intelligens routing 40-60%-kal csökkenti az AI költséget a fix GPT-4o használathoz képest.

A közvetett megtérülés

Forgatókönyv Elkerült költség
Provider kiesés — automatikus átváltás 3 óra kiesés × 50 EUR/óra kiesett bevétel = 150 EUR/alkalom
Áremelés védelme — van alternatíva 40%-os áremelés esetén: havi 2.000 EUR → 800 EUR megtakarítás
Szabályozási kockázat — EU provider elérhető Büntetés elkerülése: potenciálisan tíz- vagy százezres EUR
Jobb modell kihasználása — gyors váltás Versenyképességi előny: hetekkel előbb alkalmazva

A fejlesztési megtakarítás

Művelet Provider-specifikus rendszer Provider-agnosztikus rendszer
Új provider hozzáadása 2-4 hét fejlesztés, tesztelés 2-3 nap (új adapter írása)
Provider váltás 3-6 hét refaktorálás 5 perc (konfiguráció módosítás)
Új eszköz hozzáadása 3× karbantartás (3 formátum) 1× karbantartás (1 formátum)

6. Biztonsági és compliance vonatkozások

Adatkezelés provider-váltásnál

Amikor szolgáltatót váltunk, az üzleti adatok (CRM, ügyfelek, előzmények) a saját rendszerünkben maradnak. Csak a prompt és a válasz halad át az AI szolgáltatón — és ez minden providernél igaz. A provider-agnosztikus architektúra nem változtat az adatpolitikán, mert az adatok mindig a belső rendszerben élnek.

DPA (Data Processing Agreement) kezelése

Minden AI szolgáltatóval külön DPA szükséges. A provider-agnosztikus megoldás nem mentesít ez alól — de megkönnyíti a váltást, ha egy DPA elfogadhatatlanná válik:

Szolgáltató DPA elérhető? EU adatrezidencia SOC 2
OpenAI (API) Igen Nem (US) Igen
Azure OpenAI Igen Igen (EU West) Igen
Anthropic Igen Nem (US) Igen
Google Vertex AI Igen Igen (EU) Igen
Mistral (Le Platforme) Igen Igen (FR) Folyamatban

Az API kulcs kezelése

A best practice: az API kulcsokat központilag, szerveren kezeljük — soha nem a kliens oldalon, soha nem a konfigurációs fájlban. Környezeti változók (ENV) vagy secret manager (AWS Secrets Manager, Azure Key Vault) használata.

Egy jól tervezett rendszerben:

  • A tenant (ügyfél) kiválasztja a preferált providert
  • Az API kulcsot a platform operátor adja (központilag)
  • A tenant soha nem látja a kulcsot, de a költség a tenant-hez rendelhető

Audit trail

Minden AI interakciót naplózni kell — providerrel együtt:

  • Ki kérdezte? (felhasználó / automatizáció)
  • Melyik LLM szolgáltató válaszolt? (openai / anthropic / gemini)
  • Melyik modell? (gpt-4o-mini / claude-3.5-sonnet)
  • Milyen eszközöket használt az AI?
  • Mennyi tokent fogyasztott?
  • Mennyi volt a költség?

Ez nem csak GDPR-compliance — ez költségkontroll is.


7. Bevezetési útmutató — Hogyan építsünk provider-agnosztikus rendszert?

A. Ha SaaS megoldást választunk (Buy)

Kérdezzük meg a szolgáltatótól:

  1. Milyen AI modelleket támogat? Ha csak egyet: vendor lock-in kockázat
  2. Válthatunk-e modellt? Hogyan? Ideális: egy beállítás a dashboardon
  3. Az adataink hordozhatóak? Import/export lehetőség, nyílt API
  4. Mi történik provider kiesés esetén? Van automatikus fallback?

Piros zászlók:

  • „Kizárólag GPT-4-re épül" — lock-in
  • „Saját modellt használunk" — nem ellenőrizhető, nem cserélhető
  • Nincs export: az adataink és az AI konverzációk foglyul ejtve

Zöld zászlók:

  • Több provider közül választhatunk (OpenAI, Anthropic, Gemini)
  • Tenant-szinten konfigurálható
  • Nyílt API, adatexport

B. Ha saját rendszert építünk (Build)

Az 5 legfontosabb architekturális döntés:

1. Definiáljuk a belső formátumot (az „USB-C" szabványunkat)

Válasszunk egy canonical formátumot — az iparági de facto szabvány az OpenAI formátum:

  • Üzenetek: {role: 'system'|'user'|'assistant'|'tool', content: '...'}
  • Eszközök: {type: 'function', function: {name, description, parameters}}
  • Válaszok: {content: string, toolCalls: Array|null, usage: {input, output}}

2. Építsünk adapter réteget

Minden támogatott szolgáltatóhoz egy adapter osztály:

  • OpenAI adapter: Mivel a belső formátum = OpenAI formátum, szinte csak továbbít
  • Anthropic adapter: Lefordítja az üzeneteket (system prompt kiemelése), az eszköz-definíciókat és a tool call válaszokat
  • Gemini adapter: A role-okat és a content struktúrát módosítja

Mindegyik adapter ugyanazt az interfészt (szerződést) valósítja meg: chat(messages, options){content, toolCalls, usage}.

3. Konfigurációs szinteket hozzunk létre

Szint 1: Globális alapértelmezés (egész platform)
    ↓ felülírja
Szint 2: Tenant-szintű beállítás (vállalkozásonként)
    ↓ felülírja
Szint 3: Feladat-szintű routing (opcionális — haladó)

4. Eszközöket egyszer definiáljuk

Az összes AI eszköz (CRM keresés, naptár lekérdezés, feladat létrehozás stb.) egyetlen formátumban van meghatározva. Az adapterek felelőssége a fordítás — nem az eszköz-definícióé.

Ez azt jelenti: ha új eszközt adunk hozzá, egyetlen helyen kell definiálni, és automatikusan működik minden providerrel.

5. Tervezzünk fallback logikát

A legalapvetőbb szint: ha a hívás 10 másodpercen belül nem válaszol, próbáld a következő providerrel.

Provider prioritás:
1. OpenAI GPT-4o-mini  (ha nem válaszol 10mp-en belül →)
2. Anthropic Claude Haiku  (ha nem válaszol 10mp-en belül →)
3. Hiba → az ügyfél emberi munkatárshoz kerül

C. A 30 napos implementációs terv

Hét Feladat Eredmény
1. hét Adapter réteg megtervezése, OpenAI adapter implementálása Működő AI, 1 provider
2. hét Anthropic adapter hozzáadása, tool calling fordítás 2 provider, váltás konfigurációval
3. hét Tenant-szintű konfiguráció, beállítási felület Minden ügyfél választhat providert
4. hét Fallback logika, monitoring, audit Production-ready, költségkontroll

8. Összefoglalás — A 3 legfontosabb döntés

1. Ne épüljünk egyetlen szolgáltatóra

Az AI piac gyorsabban változik, mint bármely technológiai piac az elmúlt 20 évben. Ami ma a legjobb, 6 hónapon belül nem biztos, hogy az. A provider-agnosztikus architektúra nem arról szól, hogy ma váltanánk — hanem arról, hogy bármikor tudjunk.

2. Az adapter réteg nem luxus — alapvető infrastruktúra

Egy jól tervezett adapter réteg 2-4 hét fejlesztés — és megtakarít hónapokat a jövőben. Ha SaaS megoldást választunk, akkor a szolgáltatónktól kérjük számon: támogat-e több providert? Válthatunk-e konfigurációval?

3. A döntés ma: befektetés a szabadságba

Provider-specifikus Provider-agnosztikus
Induló költség Alacsonyabb (gyorsabb fejlesztés) Kicsit magasabb (+2-4 hét)
Szolgáltatóváltás 3-6 hét fejlesztés 5 perc konfiguráció
Áremelés hatása Teljes mértékben érinti Van alternatíva
Kiesés hatása AI funkciók leállnak Automatikus átváltás
2 éves TCO Magasabb (lock-in költségek) Alacsonyabb

A provider-agnosztikus architektúra nem a technológiáról szól — hanem az üzleti szabadságról. Arról, hogy holnap is mi dönthetünk, nem a szolgáltatónk.


A lényeg egy mondatban: Építsünk úgy AI rendszert, hogy az AI szolgáltató cserélhető legyen — mint egy villanyégő. A lámpa a miénk, a dizájn a miénk, az ügyfelek a mieink. Az izzó? Azt mindig a legjobbat tesszük bele.


A cikk a 2025-2026-os AI szolgáltató piaci trendek, valós enterprise architektúrák és multi-provider implementációs tapasztalatok alapján készült.

Megosztás:
Vissza a blogra