Az IVSZ AI Kompetencia Központ több kollégája is részt vett az IEEE Central European AI Summit 2026 budapesti konferencián március 19-21 között, mert ma már nem lehet a szoftverfejlesztés jövőjéről pusztán eszközszinten gondolkodni. Az AI nem egy különálló technológiai divathullám, hanem fokozatosan beépül a fejlesztési folyamatokba, az alkalmazás-architektúrákba, az üzleti termékekbe és az azokat körülvevő szabályozási környezetbe is. Ami ma egy kutatási vagy iparági panelben hangzik el, abból nagyon gyorsan backlog, termékdöntés, infrastruktúra-igény vagy compliance-követelmény lesz a fejlesztőcsapatok számára.
Ezért volt különösen értékes a konferencia: nem egyetlen AI-szegmensre szűkült, hanem egyszerre mutatta meg a nagy képet és a fejlesztőket közvetlenül érintő részleteket. A programban ugyanúgy helyet kaptak a nagy nyelvi modellek, az agentic AI, a robotika és az autonóm rendszerek, mint az adatgovernance, a szabványosítás, a kiberbiztonság, az energia-infrastruktúra vagy éppen az űripari felhasználások. Fejlesztői oldalról nézve ez azért fontos, mert jól látszik: a következő években azok a csapatok lesznek versenyben, amelyek nemcsak modelleket tudnak kipróbálni, hanem megbízható, mérhető, integrálható és szabályozott rendszereket is tudnak építeni köréjük.
TL;DR – 2 percben
- Az AI a szoftverfejlesztésben egyre kevésbé „külön feature”, és egyre inkább infrastruktúra: adat, architektúra, integráció, megfigyelhetőség és bizalom kérdése.
- A magyar és más kisebb nyelvek esetében az LLM-ek valódi korlátja nem csak a modellméret, hanem az adatminőség, a tokenizáció, az értékelés és a lokális használhatóság.
- Az agentic AI körüli hype ellenére a bevezetés fő akadályai nem újkeletűek: adatminőség, folyamatok, jogosultságkezelés, felhasználói bizalom és szervezeti felkészültség.
- A szabályozás már nem távoli jogi háttérzaj. A régióban kézzelfogható programok, sandboxok, állami komponens-repozitóriumok és strukturált adat-hozzáférési modellek formálják az AI-piacot.
- Az űripar, az autóipar és az energia-infrastruktúra azt mutatja, hogy az AI jövője nem csak chatfelületekről szól, hanem robusztus, fizikai világban működő rendszerekről is.
- A magyar fejlesztőcégek számára a legfontosabb üzenet: nem elég „AI-t használni”, meg kell tanulni AI-ra tervezni – adatoldalon, platformoldalon, UX-oldalon és compliance-oldalon is.
Ha érdekelnek a részletek
A konferencia fő tanulsága: az AI fejlesztői szempontból rendszerépítési kérdéssé vált
A konferencia egészének hangulata azt erősítette meg, hogy az AI körüli beszélgetés 2026-ra eltolódott a „mit tud a modell?” kérdéstől a „hogyan lesz ebből működő rendszer?” kérdés felé. A plenáris előadások és panelek nem egyszerűen új modellekről vagy látványos demókról szóltak, hanem arról, hogy a mesterséges intelligencia milyen módon kapcsolódik össze a fizikai infrastruktúrával, a vállalati folyamatokkal, a szabályozással, a biztonsággal és az emberi döntéshozatallal. Fejlesztőként ez azért fontos nézőpontváltás, mert a siker egyre ritkábban azon múlik, ki fér hozzá a legújabb modellhez, és egyre inkább azon, ki tud jobban adatot előkészíteni, rendszert integrálni, méréseket bevezetni és kockázatot kezelni.
AI governance és szabályozás: a régióban már végrehajtási szintű gondolkodás zajlik
A konferencia egyik legerősebb vonulata az AI governance és a szabályozási kérdések köré épült. A programban külön blokk foglalkozott a közép-európai régió AI governance kérdéseivel, amit dr. Palkovics László, Magyarország mesterséges intelligenciáért felelős kormánybiztosa vezetett fel és moderált. Különösen érdekes volt a cseh megközelítés: az ott bemutatott elképzelések között megjelentek az AI-tehetség vízumok, az AI-val és AI-ról szóló oktatási programok, egy esetleges AI gigafactory lengyel együttműködésben, szabályozási egyszerűsítések, startupbarát intézkedések, IPO-sandboxok, szabályozott egészségügyi adatterek, valamint egy, a közigazgatás számára elérhető AI-komponens gyűjtemény gondolata.
Fejlesztői szempontból ez azért fontos, mert jól mutatja: az AI governance már nem pusztán megfelelési feladat. A szabályozás és az állami/ágazati infrastruktúra konkrét technológiai lehetőségeket is teremt. Ha lesznek hiteles adat-hozzáférési keretek, újrafelhasználható komponensek és szabványos megvalósítási minták, akkor a fejlesztőcégek gyorsabban és kisebb kockázattal tudnak piacra lépni. A másik oldal viszont az, hogy azok a csapatok, amelyek a megfeleléstt továbbra is csak utólagos jogi ellenőrzésnek tekintik, várhatóan lassabban tudnak majd szállítani. A fejlesztő szakma számára a kérdés már nem az, hogyan szabályozzák a kormányok az AI-t, hanem az, hogy milyen lehetőségeket teremtenek.
Nagy nyelvi modellek és a magyar nyelv: a lokalizáció itt nem marketingkérdés
A program külön Large Language Models panelt is tartalmazott, ahol a keynote előadás egy jobb magyar LLM fejlesztésének kihívásairól szólt. Az egyik legerősebb üzenet az volt, hogy a nyelvi modellekben a folyékony nyelvtudás és a valódi következtetési képesség (reasoning) nem egy és ugyanaz. Egy modell attól, hogy jól hangzó magyar mondatokat generál, még nem biztos, hogy megbízhatóan képes komplex feladatok megoldására, eszközhívások kezelésére vagy következetes logikai láncok felépítésére. Sőt, a nyelvi készségek fejlesztése ronthat a modell egyéb képességein. Az is hangsúlyosan előkerült, hogy a jelenlegi magyar modellek méretben és reasoning-képességben sem közelítik meg a nemzetközi csúcskategóriát, és ebben komoly szerepe van annak, hogy a magyar nyelv erősen alulreprezentált a tréningadatokban.
Különösen fontos technikai probléma a tokenizáció: a nemzetközi modellekben használt tokenizerek a magyar nyelvet jóval több tokenre bontják szét, mint az angolt – akár két-háromszoros szorzóval is. Ez fejlesztői nyelvre lefordítva azt jelenti, hogy ugyanakkora context window mellett a magyar szövegben sokkal hamarabb elfogy a rendelkezésre álló kapacitás. Ennek hatása nemcsak a chatfelületeken érződik, hanem dokumentumfeldolgozásban, RAG-rendszerekben, többkörös ügynöki folyamatokban és minden olyan use case-ben, ahol hosszabb kontextusra lenne szükség. A magyar szoftverfejlesztők számára ebből az következik, hogy lokális nyelvű AI-termékeknél a modellválasztás, a prompttervezés és az értékelés mellett az adatelőkészítés és a szövegszerkezet optimalizálása is stratégiai kérdés lesz. A legtöbb use casere a nemzetközi csúcsmodellek sokkal alkalmasabbak, mert megengedhetők a fogalmazási hibák. A speciális felhasználásokban pedig nem általánosan jobb magyar tudásra, hanem domain specifikus tudásra van szükség, amihez speciális korpusszal finomhangolt modelleket kell létrehoznunk.
Agentic AI: az új címke mögött a régi vállalati problémák állnak
Az agentic AI külön panelt kapott a konferencián a Neuron Solutions támogatásával. A panel tanulsága az volt, hogy még magának az „AI agent” fogalmának a definíciója sem lezárt: a szakértők mást és mást értenek alatta. Hegyi Endre (Ericsson) az Andrew Ng által megfogalmazott, nagyon megengedő definíciót támogatta, míg Bátrofi Zsolt (Nokia) egy sokkal gyakorlatiasabb megfogalmazást adott. Ez önmagában is beszédes. A piac ma hajlamos minden, eszközöket használó vagy nem használó, részben vagy egészen autonóm rendszert agentic AI-ként címkézni, akár egy RAG rendszert is hívhatunk agentic-nek, hiszen egy PDF fájlból információ kinyeréséhez is szükségesek eszközök. Eközben a valós bevezetési problémák ettől nem lesznek egyszerűbbek.
A panelből számunkra a legfontosabb fejlesztői üzenet az volt, hogy az agentic projektek ugyanazokkal a korlátokkal küzdenek, mint a korábbi AI-bevezetések: adatminőség, bizalom, folyamatérettség, felhasználói képzés és szervezeti felkészültség. Ezt érdemes nagyon komolyan venni. Ha egy fejlesztőcsapat ügynökalapú megoldásban gondolkodik – legyen szó kódgenerálásról, ügyfélszolgálati automatizálásról, belső tudásasszisztensről vagy több rendszer között dolgozó workflow-ügynökről –, akkor a technológia kiválasztása csak az első lépés. Ugyanilyen fontos az eszközhívások korlátozása, a jogosultsági modell, az auditnapló, a hibakezelés, az emberi felülbírálás és a teljesítménymérés. Röviden: az agentic AI nem varázslat, hanem egy újabb összetett szoftverrendszer, csak éppen bizonytalanabb komponensekkel.
Űripar és orbitális intelligencia: extrém környezetben látszik igazán, mit jelent az AI mint mérnöki rendszer
Az űripari fókusz különösen izgalmas volt, mert nagyon tisztán megmutatta, hogyan változik meg az AI jelentése, ha elhagyjuk a képernyőre zárt use case-ek világát. A programban David Alexander, a Rice University professzora tartott plenáris előadást az AI szerepéről a kereskedelmi űrgazdaságban, emellett külön Space Technology & AI panelek is szerepeltek. Több olyan gondolat is elhangzott, amely a földi fejlesztőcsapatok számára is releváns. Az egyik, hogy az űrbeli környezet kényszeríti ki azokat az innovációkat, amelyek később földi környezetben is hasznosíthatók. A kis erőforrás, a késleltetés, az autonóm működési kényszer és a magas hibaköltség együtt olyan tervezési fegyelmet követel, amelyből sokat tanulhatnak az edge AI-val, ipari automatizálással vagy kritikus infrastruktúrával foglalkozó fejlesztők.
Az elhangzottak szerint intelligens űrállomásokhoz és részben vagy időszakosan nem ember által felügyelt élőhelyekhez autonóm rendszerekre lesz szükség, különösen korai hibaészlelésre, hibareakcióra és szenzoros/viselhető eszközökkel támogatott egészségmonitorozásra. Az orbitális intelligencia témában az is elhangzott, hogy a fellövési költségek drasztikus csökkenése miatt sokkal több rendszer kerül Föld körüli pályára, ezzel párhuzamosan pedig erősödik a törekvés AI-ready műholdakra és fedélzeti számításra. A legjobb use case-ek között a helyzetkezelés, az ütközéselkerülés és a prediktív karbantartás szerepelt. Fejlesztőként ennek két tanulsága van: 1. az űrkutatásban az AI a teljesen autonóm, önállóan cselekvő rendszerekkel teremt igazán értéket, amelyek képesek szűkös erőforrásokon is üzemelni; 2. ez annál is inkább igaz a műholdakra, ugyanis a fejlesztési és engedélyezési folyamatok átfutási ideje miatt évek telnek el egy AI-ready műhold megtervezése és kilövése között, így ezek az AI rendszerek már az indítás pillanatában legacy hardweren futnak.
AI az autóiparban: moduláris vagy end-to-end? – és miért fontosak a world modellek
Az autóipari vonalat a program egyik legerősebb plenáris előadása képviselte: Dimitar Filev, a Texas A&M University részéről beszélt arról, hogyan alakítja át az AI az autóipart. Ehhez jól kapcsolódott egy nappal korábban Oussama Khatib, a Stanford University professzorának előadása a humán-robot együttműködés jövőjéről. Az autóipari blokk egyik legérdekesebb része az volt, hogy ma két markáns fejlesztési irány rajzolódik ki az autonóm rendszerekben. Az egyik a moduláris megközelítés – ide tartoznak a megerősítéses tanulásra vagy játékelméleti logikára épülő megoldások, a másik pedig az end-to-end, Generatív AI irány, amely vizuális inputokból közvetlenül tanul cselekvési mintákat.
Mindkét megközelítésnek komoly trade-offjai vannak. A moduláris megközelítés lassabb és drágább, cserébe jobban értelmezhetők és kontrollálhatók; az end-to-end út gyorsabb és olcsóbb, viszont érzékenyebb, nehezebben magyarázható, és a Lidar inputok kezelése nem biztosított. Különösen erős gondolat volt, hogy az L5 autonómia útjában nem egyszerűen „jobb modellek” hiánya áll, hanem az online tanulási képesség korlátozottsága, az alacsony alkalmazkodóképesség és a nem optimális interakciók az emberek és a járművek között, amikből nehéz tökéletes vezetést tanulni. A jövő egyik kulcsszava a world model lehet: olyan rendszerek, amelyek nem pusztán mintázatokat ismernek fel, hanem valamilyen formában modellezik is a világ működését. Fejlesztőknek ez azért izgalmas, mert a világmodellek logikája túlmutat az autóiparon: robotikában, digitális ikrekben, szimulációban, ipari döntéstámogatásban és komplex agentic workflow-kban is központi szerepe lehet.
Energia és adatközponti infrastruktúra: az AI költsége és skálázhatósága már villamosmérnöki kérdés is
A konferencia programjában önálló Energy & AI panel is szerepelt, amelyhez Hartwig Stammberger (Eaton) nyitóelőadása adta a keretet. A másik keynote előadó Molnár Szabolcs, a Miskolci Egyetem képviseletében, aki az AI szerepéről beszélt a közelgő energiarevolúcióban. Ebből a témakörből egy különösen kézzelfogható üzenet maradt velünk: új, DC-alapú energiagazdálkodási szabványok vannak készülőben adatközponti környezetre, és a 800 VDC vagy 400 VDC irányok már nem elméleti ötletek, hanem valós iparági tervek.
Ez első hallásra távolinak tűnhet a szoftverfejlesztőktől, valójában azonban nagyon is közel van hozzájuk. Ha az AI-szolgáltatások költségszerkezetét, energiaigényét, rack-kihasználását és infrastruktúra-hatékonyságát javítják ezek a fejlesztések, akkor az közvetlenül hat a modellek futtatási költségére, az on-prem és cloud stratégiákra, valamint arra is, milyen üzleti esetek maradnak hosszabb távon fenntarthatók. Aki ma AI-terméket épít, annak nem csak a modell licence vagy az inference latency a kérdés, hanem az is, hogy mennyire energiahatékony és skálázható környezetben tudja mindezt biztosítani.
Kiberbiztonság, adatgovernance, digital humanism: a nem technikai témák valójában nagyon is technikaiak
A programban külön panelek foglalkoztak a kiberbiztonsággal, az adatgovernance-szel, a digital humanism kérdéskörével, sőt külön workshop is szólt az AI és a bizalom kapcsolatáról. A plenáris és keynote előadók között szerepelt például Alexandra Ebert, a MOSTLY AI Chief AI & Data Democratization Officere, valamint több olyan szakértő is, akik a közszféra, a kutatás és a szabályozás oldaláról közelítették meg a technológiát. Ezek a témák a fejlesztői közösségben sokszor háttérbe szorulnak a modellek és frameworkök mellett, pedig valójában pontosan ezek döntik el, hogy egy AI-rendszer hosszabb távon bevezethető-e.
A saját olvasatunkban a konferencia egyik metaüzenete az volt, hogy a bizalom nem kommunikációs kérdés, hanem műszaki tulajdonság. Ha egy rendszer auditálható, mérhető, jogosultságok mentén működik, adatkezelésben kontrollált, biztonsági oldalról pedig nem nyit értelmetlen új támadási felületeket, akkor nagyobb eséllyel fogadják el a szervezetek. Fejlesztőként ez azt jelenti, hogy a jövőben egyre kevésbé lehet külön választani a backend-architektúrát, a modellek viselkedését és a governance-követelményeket. A „responsible AI” így nem külön projekt, hanem a jó szoftvermérnöki gyakorlat része.
Mit jelent mindez a magyar szoftverfejlesztők számára?
A konferencia után számunkra az állt össze, hogy a magyar fejlesztőcégeknek és fejlesztőcsapatoknak három párhuzamos képességet kell egyszerre építeniük.
-
Az első a klasszikus AI/LLM implementációs képesség: modellválasztás, integráció, promptolás, RAG, tool use, eval és üzleti use case-ek kialakítása.
-
A második a platform- és adatoldali felkészültség: adatminőség, jogosultsági modell, naplózás, monitoring, költségkontroll, edge és cloud döntések, valamint olyan architektúra, amely nem omlik össze attól, hogy a modell viselkedése valószínűségi.
-
A harmadik pedig a szabályozási és szervezeti érettség: hogyan lehet úgy bevezetni AI-t, hogy az illeszkedjen a termékbe, a fejlesztői munkafolyamatba, a szervezeti döntéshozatalba és a megrendelői elvárásokba is.
Talán ez volt a konferencia legfontosabb fejlesztői tanulsága: a nyertesek nem azok lesznek, akik a legtöbb AI-hype kifejezést tudják egymás mellé tenni, hanem azok, akik képesek megbízható rendszereket építeni bizonytalan komponensekből. A szoftverfejlesztő szakma előtt ezért nem egyszerűen egy új eszközhullám áll, hanem egy új mérnöki korszak. Ebben a korszakban az AI-hoz nem csak hozzáférni kell, hanem érteni kell az adatoldali, infrastruktúra-oldali, üzleti és emberi következményeit is.