Poliţia UE (Europol) a emis o serie de recomandări legate de pregătirea poliţiştilor pentru impactul pozitiv şi cel negativ pe care modelele Large Language Model (LLM), modelele de inteligenţă artificială care stau la baza unor produse precum ChatGPT care procesează, manipulează şi generează text, le vor avea asupra peisajului infracţional.
În raportul intitulat ChatGPT – the impact of large language models on law enforcement, Europol a compilat rezultatele studiilor mai multor experţi criminologi legate de modul în care infractorii – nu doar infractorii cibernetici – pot abuza de astfel de modele şi cum acestea pot ajuta anchetatorii în viitor.
Analiştii Europol descriu perspectiva de exploatare a modelelor LLM şi AI de către infractori ca “sumbră”. În comun cu alţi analişti care au studiat tehnologia, ei au descoperit trei zone de îngrijorare. Capacitatea modelelor LLM de a reproduce tipare de limbă şi de a impersona stilul aparte al indivizilor sau grupurilor înseamnă deja că ele pot concepe text realist pe scară largă pentru a genera momeli convingătoare de phishing.
Capacitatea modelelor LLM de a produce text cu aparenţă de autenticitate cu mare viteză şi pe scară largă face astfel de modele potrivite exploatării pentru a genera propagandă şi dezinformare. În fine, capacitatea lor de a produce cod cu potenţial de utilizare în diverse limbaje de programare le face interesante pentru infractorii cibernetici de utilizare ca instrument nou în crearea de malware şi ransomware.
Europol a emis o serie de recomandări pentru poliţişti, astfel ca aceştia să fie mai bine pregătiţi pentru impactul modelelor LLM. Astfel, dat fiind potenţialul dăunător, agenţiile de menţinere a legii şi ordinii trebuie să înceapă să crească nivelul de conştientizare a acestor chestiuni, astfel încât potenţialele vulnerabilităţi de utilizat în scopuri infracţionale să fie descoperite şi închise.
Totodată, agenţiile trebuie să înţeleagă impactul modelelor LLM în toate zonele potenţiale de infracţionalitate, nu doar cea digitală, pentru a prevedea, preveni şi ancheta diverse tipuri de abuzuri AI. Ele ar trebui, de asemenea, să înceapă să dezvolte abilităţi in-house de care e nevoie pentru crearea majorităţii modelelor LLM – astfel ajungându-se la înţelegerea modului în care astfel de sisteme pot fi folosite în sens pozitiv la extinderea cunoştinţelor, a bazei existente de expertiză şi la extragerea răspunsurilor necesare. Poliţiştii vor trebui isntruiţi asupra modului de evaluare a conţinutului produs de modelele LLM în termeni de acurateţe şi nepărtinire.
Agenţiile ar trebui să încheie parteneriate cu mediul extern, mai exact cu sectorul de tehnologie, pentru a se asigura că sunt luate în considerare mecanisme de siguranţă, supuse unui proces de îmbunătăţire continuă, în cursul dezvoltării de tehnologii pentru modelele LLM. Nu în ultimul rând, agenţiile ar trebui să exploreze posibilităţile modelelor LLM personalizate asupra datelor deţinute chiar de ele, fapt care ar conduce la descoperirea de instanţe de utilizare mai specifice.
De curând, mai mulţi antreprenori în tehnologie, filozofi, scriitori şi oameni de ştiinţă au semnat o scrisoare apel către mediul tehnologic de a îngheţa dezvoltarea modelelor AI pe o perioadă de şase luni pentru a se estima mai corect impactul pe care aceste modele îl vor avea asupra întregii omeniri.