A kormánybiztos lapunknak részletesen beszélt arról, miért kezdenék el az igazságügyi szakértők felkészítését.
„A Magyar Igazságügyi Szakértői Kamarával közösen jártuk körbe a mesterséges intelligencia által támasztott új kihívásokat és a benne rejlő hatalmas lehetőségeket. A bírósági és hatósági döntéshozatali folyamatokban hatalmas felelősség hárul az igazságügyi szakértőkre, és a célunk, hogy tudásuk kiterjedjen ezen területre is, valamint a munkájukat mesterséges intelligencia-megoldásokkal tudjuk segíteni, támogatni”.
Ennek érdekében egy fél éves, mikrotanúsítványt adó MI-képzést szeretnének indítani igazságügyi szakértők számára.
Terveink szerint egy pilot képzést indítanánk 2026 tavaszán. A tananyag kidolgozása a Kamara szakértőinek bevonásával történik, a cél pedig, hogy a több mint 300 szakterületen minél több szakértő felkészülten nézzen szembe a jövőben az MI kihívásaival
– árulta el. A szakértői képzés kiterjed arra, hogy a szakértő a saját szakterületén (legyen az építésügy, elektronika, közlekedés, vagy informatika) milyen módon tudja a MI-t használni, segítségül hívni, és arra is, hogy az adott ügyben felmerülő MI-érintettséget hogyan kezelje. Így valamennyi szakterületen, az informatikában is MI-jártas igazságügyi szakértők tudják a bíróságok és hatóságok munkáját segíteni.
Az együttműködés első eleme a szakértők képzésére vonatkozó képzési anyag kialakítása és a képzési rendszer bevezetése lenne. A képzés célkitűzése, hogy a több mint 300 szakterületen minél többen legyenek felkészültek az AI-kihívásokra.
Deepfake-dilemmák
Az elmúlt időszakban nagyon sok szó esett a deepfake tartalmakról és azok detektálásának lehetőségéről, hatásairól, felelősségeiről. A kormánybiztos elmondta, hogy több technológiai megoldást is megvizsgálnak az Igazságügyi Minisztériummal közösen, hogy feltérképezzék a technológiai lehetőségeket és a piaci irányokat.
Az egyik ilyen irányvonal a TÜV által kifejlesztett pixelelemzéses módszer.
„Ők alapvetően a képanyagban éleket keresnek. Ha belerajzolok valamibe valamit, akkor az egy olyan vonal lesz, ami nem szükségszerűen van benne az analóg felvételben” – magyarázta a felismerés technikáját.
A módszer lényege a pixelelemzés: „Fölbontják a képet pixelekre, ezeket a pixeleket berakják egy mátrixnak az egyik elemébe, és annak az elemnek a fényességét vizsgálják. Megnézik, hogy ennek az elemnek a fényessége a mellette lévő mátrixpontok fényességével hogyan áll.”
Tekintettel arra, hogy ez jelenleg 60-70 százalékos biztonsággal tudja megállapítani azt, hogy történt-e az adott képi-, hang-, vagy videó anyagban módosítás, ez még nem tud egy jogszabályi vagy bírói döntéshozatal biztos szakmai alapja lenni, de a TÜV igyekszik oly módon továbbfejleszteni ezt a megoldást, hogy nagyobb százalékos arányt tudjanak elérni.
Blockchain technológiával minősíthetünk tartalmakat
A kormánybiztos mesélt egy másik megközelítésről is, ahol lehetőség van arra, hogy a képi-, hang- vagy videóanyag készítője, vagy alanya maga minősítse az eredeti anyagot (amit ő maga készített vagy eredetinek fogad el, függetlenül attól, hogy használt-e hozzá MI-technológiát), egyfajta blockchain technológiával megjelöli az általa eredetinek minősített felvételt, amely jelölés azonnal eltűnik, ha bármilyen beavatkozásra, módosításra kerül sor.
Ez egy megelőzési mód, itt nem utólag kerül sor annak elemzésére, hogy valódi-e a tartalom vagy sem, hanem előzetesen maga a készítő, vagy az érdekelt, érintett mondjuk úgy védi le a saját anyagát, amelyet a blockchain technológiát alkalmazó szervezet nyilvántartásba vesz.
Megvizsgáljuk, hogy ez a megoldás alkalmazható-e például bíróságokon, bizonyítási eljárásokban, például ha jogi vélelmet írunk elő arra, hogy amennyiben ilyen blockchain technológiával védett tartalom kerül benyújtásra egy eljárásban, akkor az ellenkező bizonyításáig azt kell az eredetinek tekinteni
– árulta el a kormánybiztos. Érdekességként említette meg az úgynevezett arcvédjegyet. Dánia az elsők között tervezi, hogy polgárai számára szerzői jogot biztosítson a saját arcukra és hangjukra – a deepfake tartalmak visszatartására.
Magyarországon is kínálnak már ilyen megoldást, de itt szeretném felhívni a figyelmet az SZTNH – Szellemi Tulajdon Nemzeti Hivatala felhívására, amely kiemeli, hogy egy emberi arc megjelenhet ábrás védjegyben – de a védelem megadásáról mindig az adott ügy összes körülményének mérlegelése alapján dönt a hivatal
– mondta a kormánybiztos. Kiemelte, hogy ilyenkor a védjegy szerepe nem az adott személy digitális vagy személyes identitásának védelme, mivel arra alapvetően a képmáshoz való jog szolgál, hanem az, hogy segítse a vásárlóknak megkülönböztetni az adott terméket vagy szolgáltatást másokétól. Így tehát a deepfake képi vagy videótartalmak tekintetében már régóta létezik jogvédelem a magyar szabályozásban – a képmáshoz való jogként –, amely az ügy jellegétől függően polgári vagy büntető bíróságok hatáskörébe tartozik.
Az európai szabályozás: kötelező jelölés és kivételek
Az AI Act kapcsán Palkovics László hangsúlyozta, hogy az európai szabályozás komprehenzívebb a versenytársakénál. „Ahol olyan információt közlünk, ami egyébként hihető kell legyen, tehát például nem paródia videó, ott az AI Act is azt mondja, hogy egyértelműen azonosítani kell, hogy mesterséges intelligenciával készült.” A szabályozásnak vannak korlátai, ezt konkrét példával szemléltette:
Bár ezek nem mesterséges intelligenciával készültek, de két jól ismert mém alap van: az egyik az A bukás – Hitler utolsó napjai című filmből ismert bunker jelenet, a másik pedig a Gyalog galoppból vett fekete lovag végtagjait levágós jelenet. Itt egyértelműen meg lehet mondani, hogy paródia videók.
„Az ehhez hasonló, nyilvánvalóan művészeti, kreatív, szatirikus, fiktív vagy hasonló mű vagy program esetén a közlés a mű megjelenítését vagy élvezetét nem akadályozó módon történhet. Ha tehát a kontextusból egyértelmű, hogy a tartalom nem valóságos, akkor arra az előírás nem vonatkozik” – magyarázta.
Régi átverések, új eszközök: a bizalmi válság valódi oka
Amikor arról kérdeztük a kormánybiztost, hogy érzékeli-e már a deepfake jelenség okozta bizalmi válságot, amelyről korábban Badinszky Áron jogász, az ELTE rektori biztosa beszélt lapunknak, váratlan párhuzammal válaszolt. „Emlékszünk a különböző termékbemutatókra. Az ismertségi körömben is volt, aki vett 600 ezer forintos porszívót, tehát még AI sem kellett hozzá, hogy átverjék az embereket.”
„Az, hogy embertársaink átverik egymást, nem újkeletű történet, itt csak arról van szó, hogy a mesterséges intelligencia újabb eszköz a sorban”
– fogalmazott. A technológia pozitív oldalára is felhívta a figyelmet: „ha az onkológiai vizsgálatoknál a mesterséges intelligencia megtalálja például abban a metszetben a rákos sejtet, amiben egyébként az orvos nem látja, és azzal megmenti az emberek életét, akkor szerintem a bizalom is helyreáll az MI-vel szemben.”
Jövőbeli tervek: AI-hatóság, AI-tanács és oktatási program
Nagy Márton nemzetgazdasági miniszter váratlan őszinteséggel vallott a mesterséges intelligencia személyes használatáról az AI Summit 2025 budapesti megnyitóján, miközben bejelentette, hogy egy új AI-hatóság létrehozásán dolgoznak.
A hatóság feladata az lesz, hogy auditálja a mesterségesintelligencia-megoldásokat, és döntsön arról, milyen rendszerek léphetnek be a magyar piacra.
Egyre több szereplő fog AI-t fejleszteni és használni, így ez egy bizalmi kérdés is, amit megnyugtatóan rendezni kell, és azt is, hogy aki AI-t hoz létre vagy használ, az ezt mindig felelősen tegye majd meg.
A kormánybiztos megerősítette, hogy már augusztusban bejelentették az AI-hatóságot, és érkezik az AI-tanács is. „Az AI-tanács alapvetően a különböző olyan szervezetek képviselőit tartalmazza, akik ma is egyébként valamilyen fogyasztóvédelmi kérdéssel foglalkoznak” – árulta el.
Az MI-tanács kibővül egy egyetemi és egy tudományos részleggel – az egyetemek és az MTA (Magyar Tudományos Akadémia) is képviselve lesznek benne. A tanács alapvetően szakmai kérdésekkel foglalkozik majd. Tanács mellett létrejön két hatósági funkciót ellátó szervezet is.
- Az első egy bejelentő hatóság: ez egy olyan hivatal lesz, ahová a cégek elmehetnek, ha mesterséges intelligenciát használó terméket fejlesztettek. Itt megmondják nekik, hogy hova kell fordulniuk a termék hivatalos minősítéséért. Ez a funkció a NAV-on belül, a Nemzeti Akkreditációs Hatóságnál fog működni.
- A második egy piacfelügyeleti hatóság: ez egy főosztályként fog működni a Nemzetgazdasági Minisztériumban (NGM). A feladata hasonló lesz a fogyasztóvédelemhez vagy a NÉBIH-hez – figyelni fogja a piacot és a fogyasztók érdekeit védi.
Miért kell külön AI-hatóság?
Bár már léteznek piacfelügyeleti hatóságok (például a fogyasztóvédelem), a mesterséges intelligencia olyan új és speciális terület, amelyhez külön szakértelem kell, és amely minden területet érint, nem csak egy hatóságét. Ezért hoznak létre egy olyan hatóságot, amely kifejezetten az MI-vel kapcsolatos ügyekkel foglalkozik.
(Borítókép: Palkovics László. Fotó: Papajcsik Péter / Index)
Weiler Péter képzőművész munkássága és portfóliója mesterséges intelligenciával fűszerezve.

