Deoarece inteligența artificială (AI) este utilizată pentru a lua decizii care afectează ocuparea forței de muncă, finanțe sau justiție, publicul insistă să îi fie explicată funcționarea acesteia.
Astfel, experții spun că deciziile bazate pe machine learning nu pot fi de încredere pentru că sunt atât de pline de prejudecăți. Mai mult, aceștia au cerut să se pună capăt aplicării machine learning în deciziile care pot duce la o schimbare a vieții, până când acestea pot fi dovedite a fi sigure, în același mod în care medicamentele sunt introduse în asistența medicală după lungi testări. Acest fapt este susținut de experții care spun că deciziile care nu pot fi explicate se vor vedea foarte prost pentru consumatori.
Iar companiile încep să fie conștiente că trebuie să creeze AI explicabil pentru a satisface curiozitatea umană. Într-un studiu bazat pe interviuri cu 4.400 de consumatori, s-a constatat că opiniile lor asupra eticii și AI amenințează atât reputația companiilor, cât și linia de mai jos. Astfel, 41% au declarat că se vor plânge în cazul în care o interacțiune AI ar avea probleme etice, 36% ar solicita o explicație și 34% ar înceta să interacționeze cu compania. Rezultatele mai arată că, deși etica și explicabilitatea machine learning sunt probleme separate, acestea sunt legate.
Modul de testare a prejudecății în modelele de date și de învățare automată este un proces destul de cunoscut numit „disparate impact analysis”, care este diferit, din punct de vedere tehnic, de AI explicabil. Pentru a ajuta organizațiile să își explice procesul de luare a deciziilor în învățarea mașinilor, H20.ai a creat un set de instrumente care oferă companiilor soluții pentru a explica rezultatele propriilor modele AI fără șofer și modele construite prin alte procese.
În august 2019, IBM a lansat un set de instrumente concepute pentru un scop similar. AI Explainability 360, spune compania, este o trusă completă de instrumente open source de algoritmi de ultimă generație care susțin interpretabilitatea și explicabilitatea modelelor de învățare automată. IBM invită comunitatea open source să contribuie la extinderea acesteia.
Mai mult, IBM a creat un model numit ProtoDash care explică rezultatele AI folosind prototipuri, mai exact exemple de tipuri de scenarii care conduc predicțiile. Între timp, un model numit reguli de decizie generează seturi de reguli pe care oamenii consideră că le pot interpreta, o metodă care a câștigat provocarea inaugurală a FICO Explainable Machine Learning Challenge.
Apoi, există o abordare care se bazează pe conceptul de explicație contrastantă, care încearcă să aleagă lucrurile care lipsesc. Medicii, de exemplu, tind să diagnostice pacienții la fel de mult pe simptomele care nu sunt prezente ca pe cele care sunt, iar dacă lipsește ceva, poate reprezenta un diferențiator important. Dacă ar fi fost acolo, decizia ar fi fost cu totul diferită.
Explicabilitatea trebuie să înceapă de la început. nu după un eveniment pentru a încerca să ofere controale și asigurări. Este vorba despre identificarea și gestionarea riscurilor pe întregul ciclu de dezvoltare și monitorizarea acestora în timp ce modelele sunt utilizate pentru vă asigura că totul funcționează în modul în care vă așteptați să funcționeze. Acesta este interesul public tot mai mare pentru corectitudinea luării deciziilor AI, ce duce la construirea explicabilității de la început care va intra sub umbrela responsabilității sociale corporative. Contextul este dat de publicul care devine în general mai experimentat. Acest lucru va veni dintr-o perspectivă a mărcii. Oamenii nu doresc doar să știe că sunt tratați în mod echitabil ca persoane, ci și mai pe larg, că lucrurile sunt corecte și nepărtinitoare.
Însă, pentru ca AI să fie acceptată din motive etice, aceasta va necesita mai mult decât fie explicat simplul motiv al deciziilor de învățare automată. Atunci când AI ia decizii care afectează cu adevărat viața oamenilor, a nu avea o explicație despre modul său de lucru este incredibil de frustrant. Dar o explicație singură nu este suficientă, conform specialiștilor. Dificultatea de a construi o AI explicabilă de la început și de a oferi o justificare a luării deciziilor atunci când este contestată, tentează unele organizații să omită unele dintre aceste procese.
Unele organizații au promis AI care ajută la angajarea deciziilor sau la prezicerea infracțiunii, dar specialiștii avertizează întreprinderile cu privire la adoptarea cu siguranță a AI în toate cazurile de utilizare. Organizațiile trebuie să se gândească la cazul lor special de utilizare și să nu vadă AI ca un fel de entitate magică care face totul mai bun. Au fost realizate progrese concrete în anumite domenii, dar există și alte domenii în care progresele se lasă așteptate. Întreaga idee a premisei de a încerca să se prezică ce va face o persoană în viitor este foarte dubioasă.
Pe măsură ce popularitatea AI se răspândește, la fel și îngrijorarea publică este legată de impactul acesteia. Doar companiile AI care pot explica deciziile într-un mod în care oamenii pot înțelege și accepta vor crea valoare pe termen lung pentru organizațiile care le creează.