Több ügynökös MI rendszerek
(2026 május)
Az ügynökalapú MI (= agentic AI) egy olyan autonóm rendszer, amely egy megadott cél érdekében önállóan tervez, döntéseket hoz és külső eszközöket használ, végrehajt. Az agentic AI feladata a kezdőponttól a végpontig tartó teljesítés. Míg a hagyományos generatív AI (mint pl. a ChatGPT alapmódja) passzív, a felhasználó utasításait várja, válaszol a kérdésekre, addig az agentic AI cselekszik, egy aktív digitális alkalmazott. Az agentic AI feladata előírt feladat teljesítése, autonóm döntéshozatallal. A cél ismeretében maga választja ki a következő műveletet. Képes adatokat lekérni, fájlokat létrehozni vagy más rendszerekkel kommunikálni. Ha egy eszköz hibát jelez vissza, az ügynök megpróbálja más módon megoldani a problémát. Logikai értelemben az agentic AI egy hurok. Inputja a feladat, és a hurok: a Megfigyelés → Tervezés → Cselekvés → Értékelés. Outputja nem csak egy szöveges válasz, hanem egy elvégzett munkafolyamat. Míg a hagyományos generatív AI egy lexikon, addig az agentic AI egy munkatárs.
Az agentic AI általános szerkezete négy szintű:
LLM, a supervisor egy nagy nyelvi modell, amely a logikai következtetésért, a stratégiai tervezésért és a döntéshozatalért felel.
A tervezési modul a feladatokat kisebb, végrehajtható részfeladatokra bontja (például láncolt gondolkodás vagy önellenörzés segítségével).
A rövid távú memóriában a pillanatnyi munkafolyamat kontextusát tárolja.
A hosszú távú memóriában a korábbi tapasztalatokat és külső adatbázisokból (RAG) kinyert tudást kezel.

(https://www.cybersecuritydive.com/news/ai-cybersecurity-concerns-adoption-agentic-investment/816262/)
Az agentic AI működésének része az ügynök eszközhasználata: az ügynök alapképessége, hogy API-kon keresztül e-maileket küldjön, kódot futtasson, webes keresést végezzen vagy más szoftvereket irányítson. A felhasználó egy magas szintű célt ad meg (pl. „Szervezz le egy találkozót és készíts elő hozzá egy piaci elemzést”). Az AI lebontja a célt lépésekre: naptár ellenőrzése, résztvevők megkeresése, adatok gyűjtése. A végrehajtás és az adaptáció során, ha egy lépésnél akadályba ütközik (pl. valaki nem ér rá), újratervezi a folyamatot. Az agentic AI rendszerek képesek ellenőrizni a saját munkájukat, és javítani a hibákat.
Fizikai értelemben az agentic AI egy szoftveres architektúra, egy szoftver-ügynök: fut a háttérben (pl. egy vállalati ERP rendszerbe integrálva). Chat felületen keresztül kommunikál, de a háttérben más alkalmazásokat vezérel.
Robotika vezérlésére is alkalmas, ha fizikai végrehajtó szervet irányít, (pl. egy humanoid robot vagy önvezető autó), akkor az AI az „agy”, amely a fizikai működést irányítja.
Az agentic AI alkalmazása során komoly jogi kihívásokkal kell számolni a felelősségvállalás és adatbiztonság terén, mert a rendszer önállóan hoz döntéseket a felhasználó nevében, a felhasználó felelőségére. Gyakori alkalmazások: üzleti folyamatok automatizálása (pl. ügyfélszolgálat, HR) személyes asszisztencia (pl. naptárkezelés, kutatás), szoftverfejlesztés (pl. önálló kódírás és tesztelés).
Több ügynökös rendszerekben (Multi-Agent Systems, MAS) az AI-ügynökök egy digitális csapatot alkotnak, ahol minden tagnak saját feladata, szakterülete van. MAS-ban az összetett feladatokat elosztják az AI ügynökök között. A Manager fogadja a kérést, felosztja a munkát, és ellenőrzi a végterméket. A Végrehajtók specializált egységek (pl. kódoló, kutató, író). Az Ellenőrök folyamatosan javítják a végrehajtók munkáját. A működési modell hierarchikus: A Manager irányít, az alsóbb szintek csak a felettes AI-ügynöknek jelentenek. A működés szekvenciális: ha az egyik ügynök végez, átadja a "félkész" munkát a következőnek. Létezik közös működés is, a Kerekasztal, ahol az ügynökök közös üzenőfalon vitatják meg a megoldást, amíg konszenzus születik.
A MAS fejlesztőknek az a fő problémájuk, hogy az LLM-ek néha hallucinálnak, ezért kitalálták a"Kerekasztal"-t, ami egyfajta önellenőrzés. Kevesebb a hallucináció, ha az ügynökök keresztbe ellenőrzik egymást. A több-ügynökös rendszerben az AI-k képesek egymással vitatkozni-egyeztetni, egymást tanítani, és közösen összetettebb dolgokat létrehozni, mint amire egyetlen LLM képes lenne. Szoftveres példák: AutoGen, CrewAI.
A HR (személyzeti munka) mesterséges intelligencia alapú automatizálás helyzete
A szoftveróriások folyamatosan építik be rendszereikbe a „agentic digitális munkatársakat”, a HR-vezetőknek pedig komoly etikai és jogi kihívásokkal kell szembenézniük. Olyan óriáscégek, mint az Oracle, a Workday és a Salesforce, már nem csak chatbotokat kínálnak, hanem sok ágenses mesterséges intelligenciát (MAS, agentic AI), melyek túlmutatnak a toborzási kérdésekre válaszoló botokon: képesek önállóan önéletrajzokat szűrni, felvenni a kapcsolatot a jelöltekkel, interjúkat rögzíteni és háttérellenőrzéseket végezni, és anélkül, hogy emberi beavatkozásra lenne szükség. A több ügynökös mesterséges intelligencia ágens (MAS) képes a teljes funkció sort lefedni.
A toborzás, az alkalmazott-felvétel jelenleg a legnépszerűbb felhasználási terület. Az Amazon nemrég jelentette be, hogy új szoftvert vezet be a szezonális csúcsidőszakok tömeges felvételi folyamatainak felgyorsítására. A Capita a Salesforce ágenseit használja több mint 200 toborzási feladat automatizálására, az IBM pedig a fluktuáció előrejelzésére és a készségmenedzsmentre támaszkodik. A számok azt mutatják, hogy a trend megállíthatatlan: a Gartner 2025 májusi adatai szerint a HR-vezetők 82%-a tervezi ágens alapú MI bevezetését a következő 12 hónapban. A becslések szerint 2030-ra a jelenlegi HR-feladatok 50%-át vagy teljesen automatizálják, vagy AI-ágensek végzik majd el. A Salesforce felmérése szerint az Egyesült Királyságban és Írországban a cégek 89%-a már használ AI ágenseket, és a számuk a jelenlegi átlagos 12-ről jövőre 20-ra nőhet.
A szoftvergyártók ígérete, hogy a MAS ágensek csapattagok együtteseként működik. A Workday specializált „munkatársakat” kínál a bérszámfejtés, a juttatások és a tehetséggondozás területére, amelyek képesek az adatok elemzésére és a munkafolyamatok végrehajtására. Az Oracle rendszere képes döntéseket hozni a munkafolyamatokon belül, de a kritikus pontokon kéri az emberi felügyeletet. A Salesforce Agentforce platformja pedig lehetővé teszi a vállalatok számára, hogy saját digitális munkásokat építsenek, akik meghatározott keretek között önállóan dolgoznak.
A MAS HR technológia terjedése azonban megoldatlan kihívásokat, kérdéseket vet fel az etika, a jog területén. A Salesforce kutatása szerint: a jelenleg használt ágenseknek csak az 54%-ánál létezik központi irányítási keretrendszer. (! Más az elmélet, és más a gyakorlat! Nem mindenki építi be a kritikus pontokat.)
HR-szempontból a legnagyobb kockázatot az algoritmikus elfogultság jelenti, ami kritikus pontok sorozata. Ha az ágens múltbeli átlagos adatok alapján dönt, konzerválhatja a korábbi mintákat, ami miatt kiváló jelöltek eshetnek ki a rostán, aminek kritikus pontnak kéne lennie. Jogilag tisztázatlan az elszámoltathatóság kérdése. Ha egy AI-ágens hibás, esetleg jogsértő döntést hoz – például diszkriminatív módon utasít el egy jelentkezőt –, a felelősség a munkáltatót terheli, aminek ismét kritikus pont, ezért az emberi felügyelet egy ideig elengedhetetlen marad, hogy elkerüljék az etikai és jogi csapdákat az automatizált HR-folyamatok során.
Az MI veszélyezteti a programozók munkáját?
A Világgazdasági Fórum előrejelzése szerint 2027-ig akár 40%-kal is nőhet a mesterséges intelligenciával és gépi tanulással foglalkozó szakemberek iránti kereslet (https://hirek.prim.hu/cikk/2026/05/02/atalakulo_it-piac_amit_az_mi_elvesz_azt_vissza_is_adja). De az alapvető programozói feladatok automatizálhatóak az AI segítségével. A The Washington Post beszámolója szerint a ChatGPT megjelenését követő két évben az amerikai programozói állások száma mintegy 25%-kal csökken, míg az OECD becslése alapján a munkahelyek közel 27%-a erősen ki van téve az automatizáció kockázatának. A GitHub Copilot használatát vizsgáló kutatások azt mutatják, hogy a fejlesztők akár 55%-kal gyorsabban tudnak kódot írni MI-vel. A Stack Overflow felmérése szerint a fejlesztők közel fele úgy véli, hogy az AI eszközök nem kezelik jól az összetett problémákat, és a többség nem tekinti őket közvetlen fenyegetésnek. A jelenlegi nagy nyelvi modellek esetében összetett feladatoknál akár 10–30%-os hibaarány is előfordulhat, ami szükségessé teszi az emberi ellenőrzést. Nem véletlen, hogy a ChatGPT mögött álló OpenAI a tervek szerint jelentősen bővíti létszámát, és 2026 végéig mintegy 8000 főre növeli munkatársainak számát: a program-tervezés, az MI-alapú fejlesztői eszközök hatékony használata és finomhangolása a feladatuk, hogy hol alkalmazhatóak, hogyan alkalmazhatóak a nyelvi modellek, hogyan kell hatékonyan használni őket, és milyen kockázatokkal járnak. Az MI sok iparágban megjelennek, így a jövőben szinte minden vállalat részben technológia alkalmazó céggé válik. A trendet kutatások is megerősítik: egy friss Microsoft-felmérés szerint az Egyesült Államokban a vezetők kétharmada már nem alkalmaz olyan munkavállalót, aki nem rendelkezik megfelelő MI-ismeretekkel (kompetenciával), bár a dolgozók fele már most is használ mesterséges intelligenciát, főleg a magánéletében.
Az MI veszélyezteti a fintechet, a pénzügyes mobilalkalmazásokat?
A Mythos már nem egy új chatbot, hanem egy új pénzügyi infrastruktúra-kockázati kategória. Az AI nem egy új felhasználói funkcióként jelenik meg, hanem olyan képességként, amely a digitális infrastruktúra legmélyebb rétegét vizsgálja. A brit Mesterséges Intelligencia Biztonsági Intézet (AISI) legfrissebb tesztjei szerint az OpenAI nyilvánosan elérhető GPT-5.5 modellje lényegében ugyanolyan teljesítményt ért el a kiberbiztonsági értékelésekben, mint az Anthropic nagy felhajtással bemutatott Mythos Preview modellje. Ez az eredmény megkérdőjelezi, hogy az utóbbi valóban egyedülálló kiberbiztonsági fenyegetést jelent-e? (https://www.portfolio.hu/gazdasag/20260505/a-gpt-55-az-uj-kiberbiztonsagi-tesztekben-felveszi-a-versenyt-a-nagy-port-kavart-mythos-preview-val-834740). Jelenleg nem létezik globális mechanizmus a legfejlettebb AI-modellek kockázatainak ellenőrzésére, így a döntések a magáncégek kezében maradnak. a modell nem került kereskedelmi forgalomba. Ha ez megtörtént volna, az Anthropicra kötelező szabályok vonatkoznának az AI-rendelet és a kiberreziliencia-rendelet (Cyber Resilience Act) alapján.
Amikor az AI modell tömegesen és gyorsan tud sérülékenységeket azonosítani, akkor a pénzügyi szektor rendszerkockázatot kiált. Kérdés, hogy a bankok felkészültek-e a Mythos és hasonló modellek új fajta kiberbiztonsági kockázataira? Az új AI-használat nemcsak intézményi, hanem rendszerszintű kockázatokat is létrehozhat. Léteznek közös modellekből eredő hibák, koncentrált szolgáltatói függőség, korrelált piaci viselkedés, valamint, hogy egy AI-hoz kapcsolódó szolgáltatói vagy kiberincidens időkritikus szolgáltatásokat, például fizetéseket is megzavarhat, ami infrastruktúra-felügyeletet kíván meg. A Treasury 2026 februárjában – a NIST AI RMF-re építve, több mint 100 pénzügyi intézmény és az Artificial Intelligence Executive Oversight Group (AIEOG) közreműködésével – kiadta az AI Lexikont és a Financial Services AI Risk Management Framework-öt (FS AI RMF), amely 230 kontroll célkitűzést tartalmaz az AI-kockázatkezelésre vonatkozóan a pénzügyi szektorban.
Emellett az FSOC (Financial Stability Oversight Council) már korábban, 2024-ben napirendre tette az AI és a pénzügyi stabilitás kapcsolatát.
A Federal Reserve megszólalásaiban egyre hangsúlyosabban jelenik meg a működési ellenálló képesség (operational resilience), a modellkockázat, a kiberkockázat és a korrelált döntések problémája. Mi történik, ha túl sok kritikus folyamat kezd ugyanarra a technológiai rétegre épülni?
A pénzügyi szektorban az AI körüli lelkesedés sokáig arról szólt, hogyan lehet gyorsabban fejleszteni, olcsóbban kiszolgálni az ügyfelet, hatékonyabban csalást szűrni vagy gördülékenyebbé tenni a megfelelést, melyek valós előnyök. A valódi trade-off ma már az új fejlesztések és a sebezhetőség között van. Az új kockázat az, hogy ugyanazok a modellek, ugyanazok a szolgáltatók és ugyanazok az architektúrák közös sérülékenységi pontokat hoznak létre. Ha sok szereplő hasonló modellekre és adatokra támaszkodik, akkor a hibák is egyszerre, korreláltan jelenhetnek meg. Amikor nagy a a beszállítói koncentráció az a kérdés, mi történik, ha egy külső AI-szolgáltató kiesik vagy kompromittálódik?
Ez az a pont, ahol az AI már nem pusztán innovációs téma, hanem reziliencia-kérdés.
A Claude Mythos mazért jelent fordulópontot, mert ha az új modellek tényleg csökkentik a kifinomult támadásokhoz szükséges időt, költséget és szakértelmet, akkor az AI kockázata többé nem szűkíthető le adatvédelmi, etikai vagy compliance kérdésekre. A kérdés most már az, hogy hol válik az AI-függőség infrastruktúra-kitettséggé?
A fizetésekben, az ügyfélazonosításban, a csalásmegelőzésben, a treasury-folyamatokban, a kódfejlesztésben vagy akár a piaci döntés-támogatásban mennyi a valós kontroll, mennyi a külső függőség? Magyarországon az AI a pénzügyi szektorban ma még jellemzően a hatékonyságról, az ügyfélélményről és a működési modernizációról szól. Az AI-üzemképesség és infrastruktúra-kockázat is az AI része.
Érdekesség: Az Oxford Internet Institute egyik kutatása szerint a modellek barátságosabbá hangolása „pontossági kompromisszumhoz” vezethet, azaz a rendszerek több hibát követnek el, illetve megerősíthetik a felhasználók téves elképzeléseit. Figyelmeztetnek, hogy a chatbotok magabiztos hangvételét nem szabad kritikátlanul elfogadni, különösen egészségügyi vagy orvosi kérdések esetén, bár a generatív MI hibái inkább furcsák, mint veszélyesek.
*A kínai Nemzeti Fejlesztési és Reformbizottság egy mondatos közleményben tudatta, hogy megtilt mindenféle külföldi befektetést a mesterséges intelligenciával foglalkozó, Manus nevű kínai cég esetében, egyben felszólítja a vállalatot és a Metát (két milliár dollárt fektetne be), hogy függesszék fel a felvásárlási tárgyalásokat, amelyek végső szakaszukba értek.
A Manus egy mesterséges intelligencia ágens, amelyet kínai fejlesztők alapítottak és indítottak el 2025 márciusában. A termék képes összetett feladatokat kezelni, mint például a feladattervezés és végrehajtás, tehát nem csupán egyszerű csevegésre alkalmas. (AI-ágensnek hívjuk azokat az automatizált megoldásokat, amelyek egy bizonyos cél elérése érdekében a kontextust is értelmezni tudják, és ennek mentén hoznak döntéseket. A mesterséges intelligencia ágens szintjén már célokat határozunk meg, és az AI-modell autonóm módon végrehajtja a szükséges lépéseket anélkül, hogy folyamatosan emberi utasításokat kapna.) Magyarországon vállalatok jelentős része még mindig nem rendelkezik világosan meghatározott mesterségesintelligencia-stratégiával, sőt semmilyen MI stratégiával.
