2023. július 28.

Az MI a vállalati kockázati szakemberek szerint is szabályozásra vár

Eddig is sokan mondták, hogy az MI, vagyis a Mesterséges Intelligencia fejlesztését és használatát szabályozni kell, de a Világgazdasági Fórum új jelentése szerint még a multinacionális vállalatok kockázati vezetői szerint is azonnal lépni kell a szabályozás ügyében.

Amellett, hogy a Mesterséges Intelligencia jelentős előnyökkel járhat olyan ágazatokban, mint a mezőgazdaság, az oktatás és az egészségügy, igen nagy veszélyeket is hozhat. Ami most a legfontosabb kérdés az MI-vel kapcsolatban, az láthatóan az adatvédelmi és etikai terület, illetve a veszélyek, amit az MI jelent, ha bűnözők vagy terroristák kezdik használni.

A Mesterséges Intelligencia tehát azt ígéri, hogy jelentős előnyökkel jár a vállalkozások és a társadalom számára, de jelentős károkat is okozhat, ha nem ismerjük fel a technológia által jelentett kockázatokat.

Az MI veszélyeit a multik is látják

Ezt látják a nagyvállalatok és nemzetközi szervezetek kockázati vezetői (Chief Risk Officers, vagyis a CRO-k), akik részt vettek a Világgazdasági Fórum globális kockázati kilátásokra vonatkozó felmérésében.

A megkérdezett CRO-k háromnegyede azt mondta, hogy az MI használata hírnévkockázatot jelent szervezetük brandje számára, míg tízből kilenc szerint többet kell tenni az MI fejlesztésének és használatának szabályozása érdekében.

Csaknem a fele támogatta az új MI-technológiák fejlesztésének felfüggesztését vagy lelassítását, amíg a kockázatokat jobban meg nem ismerik. A Mesterséges Intelligencia

„összetett és bizonytalan környezetet teremt, amelyben a szervezeteknek működniük kell” – áll a jelentésben.

„Az elmúlt hónapokban meredeken megnőtt a technológiával kapcsolatos kockázatokról szóló vita, különösen a generatív MI-technológiák exponenciális fejlődése iránti érdeklődés megugrása miatt.” - írják.

A generatív, általános MI-k használata - ilyen például a ChatGPT - több problémát is felvet.

MI mesterséges intelligencia

Bűnözők és kibertámadások

A CRO-k által azonosított legnagyobb kockázatok között szerepel a mesterséges intelligencia rosszindulatú használata. Könnyű használhatóságuk miatt a generatív MI-technológiák ki vannak téve a téves információk terjesztésére, a kibertámadások elősegítésére vagy az érzékeny személyes adatokhoz való hozzáférésre törekvő emberek visszaéléseinek.

Nem tudjuk, hogyan működik belül az MI

Ami az MI-t komoly kockázattá teszi, az az „átláthatatlan belső működése”. A jelentés szerint senki sem érti teljesen az MI-tartalom létrehozásának módját, hogy mi zajlik az MI rendszerén belül, mi alapján hozza meg a döntéseit. Ez növeli a CRO-k által kiemelt kockázatokat a személyes adatok véletlen megosztásával és az MI-algoritmusokon alapuló döntéshozatalban való elfogultsággal kapcsolatban.

A személyes adatok védelme, és a szerzői jogok

Mivel nem tudjuk, hogy a generatív MI honnan szedi össze a tudását az interneten felgyűlt információk között, ez felveti a fent említett személyes adatok védelmének a kérdését, Olaszországban éppen ezért tiltották be a ChatGPT-t. A különböző kutatásokból, regényekből, tudományos munkákból táplálkozó generatív Mesterséges Intelligenciák működése a szerzői jogok kérdését is felveti.

Megállítani a fejlesztést

A jelentés hozzáteszi, hogy a Mesterséges Intelligencia működésének tisztázatlansága megnehezíti a jövőbeli kockázatok előrejelzését is, de a CRO-k szerint az MI által leginkább veszélyeztetett üzleti területek az operatív műveletek, az üzleti modellek és a stratégiák.

Valamennyi megkérdezett egyetértett abban, hogy a mesterséges intelligencia fejlesztése meghaladja a potenciális etikai és társadalmi kockázatok kezelésének képességét – és 43%-uk azt mondta, hogy az új MI-technológiák fejlesztését le kell állítani vagy le kell lassítani, amíg a lehetséges hatásokat jobban meg nem ismerik.

Az AI fejlesztésének szabályozása

Hatalmas a verseny a Mesterséges Intelligencia fejlesztésében, és aki használja, nagy versenyelőnyre tehet szert. Mégis a CRO-k több mint fele nyilatkozott úgy, hogy megértette, hogy a szabályozás hogyan befolyásolhatja, lassíthatja a szervezetüket, 90%-uk pedig azt mondta, hogy fel kell gyorsítani az MI fejlesztésének szabályozására irányuló erőfeszítéseket.

A kockázati vezetők több mint fele azt tervezi, hogy auditálja a szervezetében már használt mesterséges intelligenciát, hogy felmérje annak biztonságát, jogszerűségét és „etikai megalapozottságát”, bár egyesek szerint a felsővezetés nem hajlandó üzleti kockázatként tekinteni az MI-re.

Gyorsabban kell lépnünk a mesterséges intelligencia szabályozása érdekében - mondják a CRO-k.

Vállalati internet: Tarr.hu

Kapcsolódó tartalmaink:

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram