Az EU most hatályba lépő új törvénycsomagja, az AI Act sokakban azt az aggályt keltette, hogy a szigorú adatbiztonsági előírások akadályozhatják a technológiai fejlődést.

Mások az adatbiztonság fontosságát hangsúlyozva védelmezik a törvénycsomagot. Lássuk, miről is van szó!

Miről szól az AI Act, az EU mesterségesintelligencia-szabálya?

Az EU AI Act néven ismert, a mesterséges intelligenciát szabályozó törvénycsomagot 2024 márciusában fogadták el, és a következő két év során lép hatályba (bár a magas kockázatú rendszerek kapnak még egy év haladékot).

Amint azt korábbi, az AI Actről szóló cikkünkben írtuk, az új szabályozás célja, hogy etikus általános keretrendszert teremtsen a mesterségesintelligencia-megoldások fejlesztéséhez és használatához. A törvénycsomag biztonságos, átlátható, és a társadalom érdekeinek megfelelő kereteket hivatott biztosítani a technológia (és a gyorsan növekvő iparág) számára.

A szabályozás kockázati kategóriákba sorolja az AI-t használó alkalmazásokat, és ezen kockázati szintekhez passzoló törvényi előírásokat fogalmaz meg. Így a magas kockázatú mesterségesintelligencia-alkalmazásokat szigorúbban szabályozza, mint például az “intelligens” spamszűrőket vagy videojátékokban használt MI-modelleket.

A törvény következménye, hogy a mesterséges intelligenciát fejlesztő cégeknek nemsokára jóval több információt kell majd megosztaniuk arról, milyen adatok felhasználásával tanították rendszereiket.

Adatbiztonság vagy fejlődés

Az AI Act értelmében az általános felhasználású AI modelleket (olyanokat, mint például a ChatGPT) kínáló cégeknek részletes ismertetőt kell megosztaniuk az általuk használt adathalmazokról.

A bökkenő csak az, hogy ez az iparág egyik féltve őrzött titka, hiszen az AI gyakorlatilag a gépi tanulásról szól. Ha a versenytársak megneszelik, hogy egy új modellt milyen adathalmazon tanítottak, azzal pillanatok alatt megszűnhet a legújabb fejlesztések előnye. Ahogy egy mesterségesintelligencia-alapú programot fejlesztő cég vezetője mondta: “Legfőbb álmom lenne, hogy láthassam a versenytársaim adathalmazát, és ők is kíváncsiak a miénkre”. A vezető szerint ugyanis a főzéshez hasonlóan az AI fejlesztés is egyfajta művészet, ahol a titkos “recept” teszi naggyá a legjobb modelleket. 

Az EU új mesterségesintelligencia-ügyi hivatala, az AI Office mindenesetre azt ígérte, hogy 2025 elejéig közzétesz egy “mintabevallást”, vagyis egy útmutató arról, hogy milyen adatok megosztását várja az érintett cégektől.

Teszi mindezt a szerzői jog védelmében, hiszen az AI-t fejlesztő vállalatokat visszatérően vádolják azzal, hogy engedély nélkül használtak fel szerzői jog által védett tartalmakat modelljeik tanításakor. Hogy más példát ne hozzunk: a legismertebb ChatGPT-t fejlesztő OpenAI technikai vezetője nem volt hajlandó megválaszolni azt a kérdést, hogy a cég felhasznált-e YouTube videókat Sora nevű, meghökkentően valószerű videókat generáló alkalmazása fejlesztésekor.

Vita az AI Act körül

A szerzői jogi aggályok felmerülése után az AI-fejlesztők rohamtempóban szerződtek le olyan fontos tartalomgyártókkal, mint az OpenAI esetében a Financial Times vagy a tengerentúlon szintén népszerű The Atlantic, vagy a Google esetében a Reddit. Persze mindeközben borítékolható, hogy a nagy nyelvi modelleket ezeknél jelentősen tágabb adathalmazokon tanítják.

A kontinens megosztott a kérdésben: a francia pénzügyminiszter például óva intett a túlszabályozástól, inkább azt sürgette, hogy az EU kerüljön az AI-fejlesztések élvonalába ahelyett, hogy amerikai vagy kínai termékeket használna. Szerinte az értő szabályozáshoz ugyanis innovációs tapasztalatra van szükség.

Az AI Act egyébként azt is előírja, hogy az AI modellek fejlesztői építsenek be olyan védelmi mechanizmusokat megoldásaikba, amelyek megakadályozzák, hogy azokat illegális tartalmak létrehozására használják. Emellett azt is megköveteli, hogy az AI által generált tartalmakat címkével lássák el, így tartalomfogyasztóként mindig tisztában lehetünk vele, hogy valódi képeket, hangfelvételeket, videókat nézünk-e, vagy valamilyen generált, például deepfake tartalmat.