L’ús de la intel·ligència artificial per al reconeixement facial i d’imatges ofereix un gran potencial per a la innovació empresarial i la resolució de problemes. No obstant això, aquest potencial està estretament lligat a un seguit de responsabilitats. 

Per a treure el màxim rendiment de les tecnologies de reconeixement de veu i d’imatge, i procurar un desenvolupament ètic i responsable, hem de tenir en compte les consideracions de seguretat personal. 

Per què és important regular el reconeixement facial?

De la mateixa manera que els usuaris esperen que les seves dades personals estiguin protegides, també exigeixen responsabilitat a les empreses que utilitzen la seva imatge i la seva veuI és que, si una companyia desenvolupa aquestes eines de manera insegura i irresponsable, els seus clients poden ser víctimes de ciberatacs.  

Tot i que l’objectiu principal de la innovació tecnològica és el progrés de la societat, sempre hi ha ciberdelinqüents que aprofiten les noves tecnologies per a delinquir. Un clar exemple és el conegut com a deepfake (hipertrucatge). Els deepfake de vídeo i àudio utilitzen la intel·ligència artificial per a crear contingut enganyós o alterar el contingut existent i tractar de fer passar per genuïna una cosa que no ha succeït mai.  

Com podem evitar l’ús indegut del reconeixement d’imatge i veu?

Actualment, s’han aprovat en molts països del món noves lleis que garanteixen la protecció de les dades personals. Si s’han aconseguit aplicar aquestes reglamentacions sobre la informació personal, els governs haurien de posar en marxa noves regulacions sobre reconeixement facial, de veu i d’imatge.  

El desenvolupament d’una normativa sobre ètica i seguretat en aquest àmbit, a més de protegir els usuaris, també protegiria les empreses de les accions legals que es poden derivar d’un ciberatac. Així, doncs, una regulació sobre ciberseguretat no solament garantiria la intimitat del client, sinó que podria ser un avantatge competitiu per a les grans companyies del sector.