A gépi tanulás világa bonyolultabbá tette az algoritmusokat a nehezen érthető és nehezen olvasható ítéletekkel. Hogyan hozhat döntéseket a mesterséges intelligencia? Mivel az emberek építik őket, az embereknek tudniuk kell.
Miközben azonban figyelembe vesszük a gépi tanulási torzítás nagy horderejű eseteit, megértjük, hogy nem tudja előre jelezni az eredményeket. Például még akkor is, ha tudjuk, hogy mit táplálunk be a képzési adatokba, és azt a stratégiát, amellyel a számítógépet tanulásra programozzuk, az eredmények megjósolhatatlanok maradnak.
Mivel a mesterséges intelligencia tehetségét nagyrészt azokon a területeken használják, amelyek olyan kritikus alkalmazásokat foglalnak magukban, mint az egészségügy, a biztonság stb. mérlegelnünk kell azt a forgatókönyvet, amikor a mesterséges intelligencia felváltaná az emberi felügyeleti pozíciókat. Ilyen körülmények között fontos bemutatni, hogy az MI hogyan tudta ezt az ítéletet vagy megoldást meghozni.
Ez az a hely, ahol a megmagyarázható mesterséges intelligencia releváns és fontos a különböző iparágak számára, amelyet a következő szakaszokban részletesen tárgyalunk.
Az magyarázható AI vagy más néven értelmezhető AI olyan mesterséges intelligencia, ahol az emberek értelmezhetik vagy megérthetik megoldásuk eredményeit. A megmagyarázható mesterséges intelligencia ellentétben áll a gépi tanulás „fekete doboz” koncepciójával, amelyben még a tervezők sem igazolják a mesterséges intelligencia által hozott döntést.
Mióta a mesterséges intelligencia területe kiforrott, léteznek összetett, átláthatatlan modellek, amelyeket a nehéz problémák megoldására alkalmaztak. A korábbi modellekkel ellentétben ezek a fejlett modellek összetett architektúrával rendelkeznek, ami megnehezíti a felügyeletet és a megértést.
Ha az ilyen típusú modellek nem a várt módon viselkednek, a végfelhasználók vagy a fejlesztők nehezen tudják bizonyítani, hogy ezek a módszerek miért tudják hatékonyan kezelni a problémákat. Az magyarázható AI vagy XAI megfelel a mesterséges intelligencia tervezésének növekvő igényeinek, hogy betekintést nyújtson az ilyen átláthatatlan modellek belső működésébe. Ezáltal a figyelmen kívül hagyások a rendszerek teljesítményének exponenciális javulását eredményezik.
Például egy IBM tanulmány feltárta, hogy az XAI platform felhasználói körülbelül 15-30%-kal növelték a modellek pontosságát, és 4,1-15,6 millió dolláros nyereséget értek el.
Vegyünk egy példát, hogy megértsük, mit jelent a magyarázható AI. A mélytanulási algoritmusok kiegészítik az egészségügyi alkalmazásokat, például a rákszűrést, ahol az orvosok számára fontos elemezni a diagnosztikai algoritmus mögött meghúzódó logikát. Ha álnegatív, az azt jelenti, hogy a beteg nem kap életmentő kezelést, míg a hamis pozitív azt jelenti, hogy a beteg megkapja az invazív kezelést, miközben az nem feltétlenül szükséges.
A megmagyarázható AI alapjai
Magyarázatok
Ahhoz, hogy bármely vállalkozás számára nagy téteket generáljon, kulcsfontosságú a mesterséges intelligencia modelljének átfogó magyarázata tényekkel és érveléssel. Például a rendszertulajdonosok számára előnyös magyarázatok – mondjuk az ajánlott zenék, filmek stb. – eljutnak a rendszer tulajdonosához.
Jelentőségteljes
Itt a megmagyarázható mesterséges intelligencia érthető magyarázatokat kell, hogy nyújtson a vállalat partnerei és érdekelt felei számára. A pszichológiai különbségek miatt a különböző felhasználók többféleképpen értelmezhetik magyarázataikat. Egy autós számára, ha a mesterséges intelligencia félreértelmezi a műanyag zacskót kőként, a fejlesztőnek meg kell értenie a téves besorolás okát.
A magyarázatok pontosságának mérőszámai segíthetnek a vállalkozásoknak abban, hogy hangsúlyozzák az érintettek számára a magyarázatok pontosságát. Például míg egy hiteljóváhagyási algoritmusnak a kérelmező jövedelme és tartozása alapján kell leírnia a döntést, és a döntés az irányítószám alapján történik, a magyarázat pontossága hiányzik.
Tudáskorlátok
A mesterséges intelligencia modelleknek a tudás határain belül kell működniük, hogy megakadályozzák az eltéréseket vagy a nemkívánatos következményeket. A mesterséges intelligencia rendszereknek meg kell határozniuk és meg kell osztaniuk a tudáskorlátokat, hogy erősítsék a bizalom tényezőjét a vállalat és az érdekelt felek között. Fontolja meg azt a rendszert, amely besorolja a halfajokat az akvakultúra-üzletág számára, és tartalmaz néhány haltörmeléket. A rendszer a félrevezető észlelés helyett jelezheti, hogy nem tudott halat észlelni.
Az magyarázható AI jelentősége a különböző iparágakban
A hatékony mesterséges intelligencia bevezetése érdekében a szervezeteknek integrálniuk kell az etikai elveket a mesterséges intelligencia alkalmazásaiba vagy folyamataiba átlátható mesterségesintelligencia-rendszerek fejlesztése révén. Itt vannak azok az iparágak, ahol a megmagyarázható AI csodákra képes.
-
- EgészségügyA megmagyarázható AI-t használó gép segítségével az orvosi személyzet időt kaphat arra, hogy az ismétlődő feladatok helyett csak az értelmező feladatra összpontosítson. Az XAI segít a gépeknek az adatok kiértékelésében és a következtetések levonásában, valamint az orvost, a döntési származási információkat is intimálja a következtetések levonására.
-
- GyártásAz XAI képes meghatározni, hogy miért nem működik megfelelően az összeszerelősor, és hogyan kell idővel korrigálni. Jelentős a gépi megértés javítása, valamint az emberek és a gépek közötti tudatosság növelése.
-
- VédelemA megmagyarázható mesterséges intelligencia segítségével megmagyarázhatja, miért hoznak döntéseket az AI-rendszerek vagy az autonóm járművek. Ez azért fontos, hogy elkerüljük az olyan etikai kihívásokat, mint például, hogy a rendszer miért azonosított rosszul egy adott objektumot, vagy miért nem tudott a célpontra lőni.
-
- Autonóm járművekAz XAI fontos ebben a szektorban az autonóm járművek által okozott váratlan balesetek miatt. Itt az algoritmusok biztonság szempontjából kritikus döntéseket hozhatnak, javítva a helyzetfelismerést a váratlan eseményekkel vagy összeomlással szemben.
-
- HitelengedélyekA XAI meg tudja magyarázni, miért hagyják jóvá vagy tagadják meg a kölcsönt. Ez alapvető fontosságú, mivel segít megelőzni a lehetséges etikai hátrányokat az ember-gép megértés révén.
-
- Csalások felderítéseA pénzügyi szolgáltatások az Explainable AI segítségével magyarázzák meg a tranzakció gyanúsként való megjelölésének okát és sok más tevékenységet. Segíthet abban is, hogy véget vessen a tisztességtelen elfogultságnak vagy a megkülönböztetéssel kapcsolatos aggályoknak, miközben azonosítja a csalárd tranzakciókat.
A megmagyarázható AI buktatói
A megmagyarázható mesterséges intelligencia definícióit különböző kontextusokban eltérően értelmezik. Egyes kutatók az értelmezhetőséget és a magyarázhatóságot felváltva veszik figyelembe az érthető modellek felépítésének fogalmának meghatározásához.
A Google úgynevezett rasszista mesterséges intelligencia-algoritmusa a fényképek címkézésére a fekete emberek és a gorillák megkülönböztetésére világszerte gondot okozott. Hasonlóan, egy másik incidens 2013-ban történt, amikor emberi felügyelet nélkül az Amazon AI automatizált platformja pólókat adott el a „Keep Calm and Punch Her” felirattal.
Emellett hiányzik a valós iránymutatás a projektkövetelményeket támogató magyarázatok kiválasztásához, telepítéséhez és teszteléséhez.
Noha vannak magyarázatok az ML-rendszerek megértésének növelésére, a kutatás továbbra is annak ismeretében folyik, hogy a megmagyarázhatóságot hogyan lehet növelni a bizalom növelése érdekében a nem mesterséges intelligencia-szakértők körében is.
Következtetés
Az AI-szakértőknek képesnek kell lenniük az AI-rendszerek felügyeletére, és elmondani, hogy miért hozták meg az üzleti szempontból kritikus döntéseket a platformok AI-alkalmazásai. Hagyni kell, hogy az AI szakemberek értelmezzék a bonyolult rendszereket, és megértsék, hogy a modellek pontosan azt tanulták meg, amit meg kellett volna tanulniuk. A neves mesterségesintelligencia-tanúsítvány-szolgáltató AI-oktatása révén egy AI-tehetség modelleket fejleszthet, gyártásba helyezheti azokat, és sokoldalú megközelítést alkalmazhat arra vonatkozóan, hogy a rendszerek hogyan magyarázzák meg a döntések okait.