Sicurezza sul lavoro, protezione dei dati personali e intelligenza artificiale: una nuova sfida per le imprese.
1. Sicurezza sul lavoro e privacy: binari che devono correre insieme
Assicurare la conformità al D.Lgs. n. 81/2008 per garantire la salute e l’integrità psico-fisica dei dipendenti inevitabilmente comporta il trattamento di dati personali, talvolta anche “particolari” ai sensi dell’art. 9 del GDPR, come quelli relativi alla salute, all’idoneità alla mansione, alla sorveglianza sanitaria o a specifiche vulnerabilità.
La tecnologia, in particolare l’AI, potenzia queste attività attraverso sistemi predittivi, sensori IoT, software di riconoscimento facciale o rilevatori di affaticamento. Tuttavia, il ricorso all’AI non esonera, ma anzi rende ancora più urgente l’obbligo di rispettare i principi del GDPR, tra cui minimizzazione, trasparenza, accountability e sicurezza.
2. AI in ambito sicurezza: opportunità e rischi per i dati personali
Le applicazioni dell’AI in ambito sicurezza sul lavoro sono numerose:
- sistemi predittivi per l’analisi dei comportamenti a rischio;
- rilevamento in tempo reale di posture scorrette;
- allerta automatica in caso di cadute o eventi anomali;
- analisi video automatizzata tramite algoritmi di computer vision;
- chatbot AI per l’assistenza nella segnalazione di eventi.
Queste soluzioni migliorano l’efficacia delle misure preventive, ma comportano trattamenti massivi e talvolta invisibili di dati personali, inclusi dati biometrici e dati sensibili. Il rischio di profilazione indebita, di discriminazioni algoritmiche o di accessi non autorizzati richiede un’attenta progettazione e governance dei sistemi AI, secondo il principio di privacy by design.
3. L’AI Act e l’uso ad alto rischio in ambito lavorativo
Nel contesto europeo, il nuovo AI Act (Reg. UE 2024/1689) classifica i sistemi AI utilizzati sul lavoro – ad esempio per la gestione del personale, la valutazione delle performance o il monitoraggio dei comportamenti – come ad alto rischio. Questi sistemi sono soggetti a requisiti stringenti in termini di:
- valutazione della conformità e documentazione tecnica;
- trasparenza degli algoritmi;
- sorveglianza umana;
- registrazione automatica delle attività;
- robustezza e sicurezza del sistema.
Questo impone alle aziende che utilizzano l’AI per finalità di sicurezza (o anche HR) di implementare processi di gestione del rischio, audit periodici e di effettuare una DPIA (Data Protection Impact Assessment) come previsto dall’art. 35 GDPR.
4. DPIA, governance e accountability nell’era dell’AI
Nel caso di trattamenti ad alto rischio, come quelli che combinano AI e dati sanitari dei lavoratori, la DPIA diventa non solo necessaria, ma centrale per la responsabilità proattiva del titolare. La DPIA deve:
- dimostrare la proporzionalità e la necessità del trattamento;
- analizzare la logica degli algoritmi usati;
- valutare i rischi specifici per i diritti e le libertà delle persone;
- prevedere misure tecniche e organizzative idonee a mitigarli.
Inoltre, devono essere chiari i ruoli dei soggetti coinvolti (es. responsabili esterni, fornitori di tecnologia AI) e va documentato il rispetto dei principi etici (non discriminazione, trasparenza, equità).
5. Il principio di minimizzazione e la sicurezza informatica dei sistemi AI
Il trattamento dei dati da parte dell’AI, se non correttamente impostato, può entrare in conflitto con il principio di minimizzazione: più dati sono trattati, maggiori sono i rischi in caso di accesso illecito, errore o manipolazione del sistema.
È quindi essenziale garantire:
- crittografia e pseudonimizzazione dei dati;
- controlli di accesso granulari ai sistemi AI;
- registro dei trattamenti e logging delle attività;
- audit algoritmici per evitare bias o errori sistematici;
- sicurezza della supply chain dei fornitori AI.
6. Cultura della protezione dei dati nel contesto della sicurezza
Promuovere una cultura aziendale che integri sicurezza sul lavoro, protezione dei dati e uso etico dell’AI è fondamentale. A tal fine è necessario:
- aggiornare le policy interne su videosorveglianza, monitoraggio e uso di AI;
- coinvolgere il DPO nella fase di progettazione delle soluzioni di AI;
- formare RSPP, dirigenti e lavoratori sull’uso corretto dei sistemi intelligenti;
- monitorare costantemente l’efficacia delle misure adottate.
7. Conclusioni
La sicurezza sul lavoro evolve con la tecnologia e l’intelligenza artificiale rappresenta uno strumento potente per ridurre incidenti e migliorare la prevenzione. Tuttavia, senza una robusta cornice giuridica e organizzativa per la protezione dei dati personali, il rischio è di trasformare strumenti nati per proteggere in potenziali veicoli di sorveglianza e discriminazione.
Il rispetto del GDPR, l’applicazione dei principi dell’AI Act e l’adozione di una governance trasparente e responsabile rappresentano oggi il perno per un futuro del lavoro sicuro, umano e sostenibile.