Influența socială a roboților asupra oamenilor și problemele de securitate asociate acestui fenomen nu trebuie subestimate. Cercetările efectuate de Kaspersky și Universitatea din Gent au descoperit că roboții pot extrage informații sensibile de la persoanele care au încredere în ei, convingându-i să întreprindă acțiuni care afectează securitatea. De exemplu, în anumite scenarii, prezența unui robot poate avea un impact mare asupra deciziei oamenilor de a permite accesul în clădiri securizate.
Lumea se îndreaptă rapid către o digitalizare și o mobilitate în creștere a serviciilor, multe industrii și locuințe bazându-se foarte mult pe automatizare și pe utilizarea sistemelor robotizate. Conform unor estimări, acestea din urmă vor deveni norma pentru gospodăriile înstărite, până în 2040. În prezent, majoritatea acestor sisteme robotice se află în stadiul de cercetare academică și este prea devreme pentru a discuta despre cum trebuie încorporate măsurile de securitate cibernetică. Cu toate acestea, cercetările efectuate de Kaspersky și Universitatea din Ghent au descoperit o dimensiune nouă și neașteptată a riscului legat de robotică: impactul social asupra comportamentului oamenilor, precum și potențialul pericol și vectorul de atac asociat.
Cercetarea s-a concentrat pe impactul unui anumit robot social – care a fost proiectat și programat pentru a interacționa cu oamenii folosind canale similare celor utilizate de om, cum ar fi vorbirea sau comunicarea non-verbală – cu aproximativ 50 de participanți. Presupunând că roboții sociali pot fi atacați și că un atacator a preluat controlul în acest scenariu, cercetarea a avut în vedere potențialele riscuri de securitate legate de modul în care robotul își influențează activ utilizatorii să efectueze anumite acțiuni, printre care:
● Să le acorde accesul în spații unde nu ar avea voie. Robotul a fost amplasat lângă o intrare securizată a unei clădiri cu utilizare mixtă, din centrul orașului Gent, Belgia, și a întrebat personalul dacă poate intra cu ei. În mod normal, zona poate fi accesată numai cu ajutorul unui permis de securitate, validat de cititoarele de acces ale ușilor. În timpul experimentului, nu toți angajații au acceptat cererea robotului, dar 40% au deblocat ușa și au ținut-o deschisă pentru a îl lăsa în zona securizată. Însă, atunci când robotul a fost poziționat ca o persoană care livrează pizza, având o cutie de la o cunoscută marcă internațională, personalul a acceptat cu ușurință rolul robotului și a părut mai puțin înclinat să pună la îndoială prezența acestuia sau motivele pentru care are nevoie de acces în zona securizată.
● Să divulge informații sensibile. A doua parte a studiului s-a concentrat pe obținerea de informații personale, folosite de obicei pentru a reseta parolele (cum ar fi data nașterii, marca primului automobil, culoarea preferată etc.). Robotul social a fost folosit din nou, de data aceasta invitând oamenii să poarte conversații prietenoase. De la toți participanții, cu excepția unuia singur, cercetătorii au reușit să obțină informații personale, într-un ritm de aproximativ una pe minut.
Comentând rezultatele experimentului, Dmitry Galov, Security researcher la Kaspersky, a declarat: „La începutul cercetării am examinat software-ul folosit în dezvoltarea sistemelor robotizate. Foarte interesant, am constatat că designerii aleg în mod conștient să excludă mecanismele de securitate și, în schimb, se concentrează pe dezvoltarea confortului și a eficienței. Cu toate acestea, așa cum au arătat rezultatele experimentului nostru, dezvoltatorii ar trebui să nu uite de securitate odată ce etapa de cercetare este finalizată. În afară de considerentele tehnice, există aspecte cheie care trebuie avute în vedere atunci când vine vorba de securitatea roboticii. Sperăm că proiectul nostru comun și incursiunea în domeniul securității cibernetice a roboticii împreună cu colegii de la Universitatea din Gent îi vor încuraja și pe alții să ne urmeze exemplul și să crească gradul de conștientizare cu privire la această problemă, în rândul publicului și al comunității de securitate.”
„Literatura de specialitate indică faptul că încrederea în roboți și în special în roboții sociali este reală și poate fi folosită pentru a convinge oamenii să acționeze într-un anume fel sau să dezvăluie informații”, adaugă Tony Belpaeme, profesor de AI și Robotică la Universitatea din Gent. „În general, cu cât robotul este mai uman, cu atât mai mare este puterea sa de convingere. Experimentul nostru a arătat că acest lucru ar putea avea riscuri semnificative pentru securitate: oamenii tind să nu le ia în considerare, presupunând că robotul este bine intenționat și de încredere. Acest lucru oferă o potențială cale de acces pentru atacuri, iar cele trei studii de caz discutate în raport reprezintă doar o parte dintre riscurile de securitate asociate roboților sociali. Este motivul pentru care considerăm esențial să colaborăm acum, astfel încât să înțelegem și să putem aborda riscurile și vulnerabilitățile emergente, iar rezultatele se vor vedea pe viitor. ”