A Google DeepMind, a Google Gemini modellje és különféle más GenAI (generatív mesterséges intelligencia) projektjei mögött álló kutatóvállalat bejelentette, hogy létrehoz egy új szervezetet az AI biztonság előmozdítására.
A generatív AI modellek futótűzszerű terjedése és gyors fejlődése miatt egyre több aggály merül fel – ezzel a lépéssel a Google ezeket igyekszik kezelni.
AI-biztonság a gyakorlatban
A generatív mesterséges intelligencia “kreatív” felhasználása már az első ChatGPT modell robbanásszerű indulásakor jellemző volt. Nem tartott sokáig, hogy az új technológia lehetőségeire rosszindulatú aktorok is felfigyeljenek. Ma pedig, mikor a szövegek mellett már hangfelvételeket, illetve a megtévesztésig valósághű videókat és képeket is könnyedén generálhatunk, egyre égetőbbé válik a mesterséges intelligenciával segítette csalás problémája.
Már a döntéshozók is felfigyeltek rá, hogy milyen könnyedén használhatóak a generatív mesterségesintelligencia-megoldások az álhírek és más, a megtévesztésig valósnak ható dezinformációs anyagok létrehozására. A TechCrunch példái szerint ha megkérjük a Geminit, a Google AI-modelljét, hogy generáljon nekünk hamis tartalmakat az amerikai elnökválasztásról, egy jövőbeni sporteseményről, vagy nagyjából bármi másról, akkor azt az AI (a megfelelő instrukciókra, vagyis promptokra válaszul) meg fogja tenni. Talán nem kell ecsetelni, hogy ez mennyire veszélyes – arról nem is beszélve, hogy szembemegy a Google gondosan felépített imidzsével. Ezért hozta most létre a techcég új AI-biztonsági alegységét.
Mivel foglalkozik majd a Google AI-biztonsági csapata?
Az új szervezeti egység (AI Safety and Alignment, vagyis AI Biztonság és Összehangolás) feladatköre hasonló az OpenAI által tavaly indított Superalignment csapathoz. Általánosságban az AI-biztonsággal foglalkoznak, az elvek meghatározása mellett arra is figyelve, hogy felügyeljék a konkrét biztonsági intézkedések beépítését a Google Gemini modelljeibe. Az új szervezeti egység fókusza első körben a gyermekek védelme, az igazságtalanságok terjedésének megakadályozása, és az AI segítségével generálható hamis egészségügyi tanácsok eltüntetése.
A csapat vezetője, Anca Dragan elmondta, hogy munkájukkal azt igyekeznek elősegíteni, hogy a modell jobban megértse az emberek preferenciáit és értékeit, és teljeskörűbben ismerje fel és biztosítsa az emberiség sokféleséget. A Google új AI-biztonsági csapata ráadásul azért is felelős, hogy a még ki sem fejlesztett modern mesterségesintelligencia-megoldások biztonságának alapelveit is lefektesse.
Azt még nem tudni, hány mindez új munkahellyel fog járni a világcégnél, ami épp idén év elején kezdett leépítésekbe. De az valószínűleg nem véletlen, hogy a meglévő londoni AI-kutató csapat mellett az újabb szervezet székhelye már az Amerikai Egyesült Államokban, a Google jelenlegi központjához közel lesz. Ez is jól jelzi, milyen központi kérdéssé kezd válni az AI modellek biztonságos fejlesztése.
Alacsony bizalom a mesterséges intelligenciában
Az OpenAI és a Google saját jól felfogott érdekéből lépett az AI-biztonság irányába. Felmérések szerint ugyanis az amerikaiak jelentős része aggódik amiatt, hogy az AI segíti majd a dezinformáció terjedését. Olaj az aggodalmak tüzére, hogy az Amerikai Egyesült Államokban idén választások lesznek, vagyis jelentősen megugrik a dezinformációs kitettség.
Ráadásul nem elég, hogy emiatt már a döntéshozók is elkezdtek érdeklődni a téma iránt, de a kutatások szerint a vállalati szektorban (vagyis a genAI-modellek legnagyobb piacán) is alacsony bizalom jellemzi az AI-megoldásokat. A vállalatvezetők mintegy 60%-a tart attól, hogy a munkavállalók hamis AI-generálta információkra alapozva esetleg hibás döntéseket hoznak.
Az genAI modelleket fejlesztő cégeknek tehát elemi érdeke a szabályozás és az AI-biztonság előremozdítása, hiszen ilyen alacsony bizalmi szint mellett termékeik piaca is kisebb a lehetségesnél. Emellett a Google új csapatának vezetője maga is előrejelezte, hogy ne számítsunk azonnali változásra: a hibák kiszűrése, de egyáltalán az AI veszélyeinek megértése is egy hosszabb folyamat lesz. Akárhogy is, ha már az OpenAI és a Google is ekkora erőforrásokat irányít az AI-biztonság problémájára, reménykedhetünk benne, hogy rövid távon valódi előrelépéseket könyvelhetünk el az AI-biztonság terén.