Eddig is sokan mondták, hogy az MI, vagyis a Mesterséges Intelligencia fejlesztését és használatát szabályozni kell, de a Világgazdasági Fórum új jelentése szerint még a multinacionális vállalatok kockázati vezetői szerint is azonnal lépni kell a szabályozás ügyében.
Amellett, hogy a Mesterséges Intelligencia jelentős előnyökkel járhat olyan ágazatokban, mint a mezőgazdaság, az oktatás és az egészségügy, igen nagy veszélyeket is hozhat. Ami most a legfontosabb kérdés az MI-vel kapcsolatban, az láthatóan az adatvédelmi és etikai terület, illetve a veszélyek, amit az MI jelent, ha bűnözők vagy terroristák kezdik használni.
A Mesterséges Intelligencia tehát azt ígéri, hogy jelentős előnyökkel jár a vállalkozások és a társadalom számára, de jelentős károkat is okozhat, ha nem ismerjük fel a technológia által jelentett kockázatokat.
Az MI veszélyeit a multik is látják
Ezt látják a nagyvállalatok és nemzetközi szervezetek kockázati vezetői (Chief Risk Officers, vagyis a CRO-k), akik részt vettek a Világgazdasági Fórum globális kockázati kilátásokra vonatkozó felmérésében.
A megkérdezett CRO-k háromnegyede azt mondta, hogy az MI használata hírnévkockázatot jelent szervezetük brandje számára, míg tízből kilenc szerint többet kell tenni az MI fejlesztésének és használatának szabályozása érdekében.
Csaknem a fele támogatta az új MI-technológiák fejlesztésének felfüggesztését vagy lelassítását, amíg a kockázatokat jobban meg nem ismerik. A Mesterséges Intelligencia
„összetett és bizonytalan környezetet teremt, amelyben a szervezeteknek működniük kell” – áll a jelentésben.
„Az elmúlt hónapokban meredeken megnőtt a technológiával kapcsolatos kockázatokról szóló vita, különösen a generatív MI-technológiák exponenciális fejlődése iránti érdeklődés megugrása miatt.” - írják.
A generatív, általános MI-k használata - ilyen például a ChatGPT - több problémát is felvet.
MI mesterséges intelligencia
Bűnözők és kibertámadások
A CRO-k által azonosított legnagyobb kockázatok között szerepel a mesterséges intelligencia rosszindulatú használata. Könnyű használhatóságuk miatt a generatív MI-technológiák ki vannak téve a téves információk terjesztésére, a kibertámadások elősegítésére vagy az érzékeny személyes adatokhoz való hozzáférésre törekvő emberek visszaéléseinek.
Nem tudjuk, hogyan működik belül az MI
Ami az MI-t komoly kockázattá teszi, az az „átláthatatlan belső működése”. A jelentés szerint senki sem érti teljesen az MI-tartalom létrehozásának módját, hogy mi zajlik az MI rendszerén belül, mi alapján hozza meg a döntéseit. Ez növeli a CRO-k által kiemelt kockázatokat a személyes adatok véletlen megosztásával és az MI-algoritmusokon alapuló döntéshozatalban való elfogultsággal kapcsolatban.
A személyes adatok védelme, és a szerzői jogok
Mivel nem tudjuk, hogy a generatív MI honnan szedi össze a tudását az interneten felgyűlt információk között, ez felveti a fent említett személyes adatok védelmének a kérdését, Olaszországban éppen ezért tiltották be a ChatGPT-t. A különböző kutatásokból, regényekből, tudományos munkákból táplálkozó generatív Mesterséges Intelligenciák működése a szerzői jogok kérdését is felveti.
Megállítani a fejlesztést
A jelentés hozzáteszi, hogy a Mesterséges Intelligencia működésének tisztázatlansága megnehezíti a jövőbeli kockázatok előrejelzését is, de a CRO-k szerint az MI által leginkább veszélyeztetett üzleti területek az operatív műveletek, az üzleti modellek és a stratégiák.
Valamennyi megkérdezett egyetértett abban, hogy a mesterséges intelligencia fejlesztése meghaladja a potenciális etikai és társadalmi kockázatok kezelésének képességét – és 43%-uk azt mondta, hogy az új MI-technológiák fejlesztését le kell állítani vagy le kell lassítani, amíg a lehetséges hatásokat jobban meg nem ismerik.
Az AI fejlesztésének szabályozása
Hatalmas a verseny a Mesterséges Intelligencia fejlesztésében, és aki használja, nagy versenyelőnyre tehet szert. Mégis a CRO-k több mint fele nyilatkozott úgy, hogy megértette, hogy a szabályozás hogyan befolyásolhatja, lassíthatja a szervezetüket, 90%-uk pedig azt mondta, hogy fel kell gyorsítani az MI fejlesztésének szabályozására irányuló erőfeszítéseket.
A kockázati vezetők több mint fele azt tervezi, hogy auditálja a szervezetében már használt mesterséges intelligenciát, hogy felmérje annak biztonságát, jogszerűségét és „etikai megalapozottságát”, bár egyesek szerint a felsővezetés nem hajlandó üzleti kockázatként tekinteni az MI-re.
Gyorsabban kell lépnünk a mesterséges intelligencia szabályozása érdekében - mondják a CRO-k.
Vállalati internet: Tarr.hu