Quello che Meta sta facendo ai suoi dipendenti in Europa non si può fare
Meta monitora ogni click e ogni schermata dei dipendenti con l'AI. In Europa, sistemi come il MCI rientrerebbero tra gli AI ad alto rischio sotto l'AI Act. Un caso che riguarda ogni PMI italiana che usa strumenti AI per gestire i propri lavoratori.

A maggio 2026 il New York Times ha raccontato cosa sta succedendo dentro Meta. I dipendenti sono insoddisfatti: morale ai minimi storici, cultura della paura, tagli massicci mentre l'azienda spinge sull'AI a tutti i costi.
Ma c'è un dettaglio nella storia che, per chi opera in Europa, vale molto più delle statistiche sul morale: il sistema di monitoraggio che Meta ha introdotto sui suoi dipendenti sarebbe illegale in Italia.
Il Model Capability Initiative (MCI)
Meta ha introdotto il Model Capability Initiative (MCI), un software che registra in tempo reale ogni movimento del mouse, ogni click, ogni navigazione nei menu, ogni schermata visualizzata dai dipendenti. Lo scopo dichiarato è misurare quanto i lavoratori utilizzano gli strumenti AI messi a disposizione dall'azienda.
Un ex dipendente ha definito il programma "molto distopico". Ma distopico o no, negli Stati Uniti Meta può farlo. In Europa, la storia è completamente diversa.
Cosa dice l'AI Act
Il Regolamento UE sull'Intelligenza Artificiale (AI Act), in vigore dal 2024 con applicazione progressiva fino al 2027, classifica i sistemi AI in base al rischio che presentano. Quelli ad alto rischio richiedono obblighi stringenti prima di poter essere utilizzati.
L'Allegato III dell'AI Act include esplicitamente tra i sistemi ad alto rischio:
"Sistemi AI destinati a essere usati per il monitoraggio e la sorveglianza dei lavoratori, inclusi i sistemi destinati a monitorare le prestazioni e il comportamento dei lavoratori."
Un sistema come MCI — che monitora comportamento, click, schermate e pattern di utilizzo — rientra in questa categoria. Prima di poterlo usare in Europa, un'azienda dovrebbe:
- 1.Condurre una valutazione della conformità (conformity assessment)
- 2.Produrre documentazione tecnica completa del sistema
- 3.Implementare un sistema di gestione del rischio continuo
- 4.Garantire la supervisione umana sui risultati
- 5.Registrare il sistema nella banca dati UE dei sistemi AI ad alto rischio
Cosa dice lo Statuto dei Lavoratori (e il GDPR)
L'AI Act non è l'unico ostacolo. In Italia, l'Art. 4 dello Statuto dei Lavoratori vieta i controlli a distanza dell'attività dei lavoratori, salvo accordo sindacale o autorizzazione dell'Ispettorato del Lavoro, e solo per specifiche finalità (sicurezza, organizzazione produttiva, tutela del patrimonio aziendale).
Il GDPR aggiunge il principio di minimizzazione dei dati: raccogliere tutto ciò che fa un dipendente — ogni click, ogni schermata — va ben oltre ciò che è necessario per qualsiasi finalità legittima.
Mettendo insieme AI Act, Statuto dei Lavoratori e GDPR: un sistema come MCI sarebbe bloccato prima ancora di partire.
Il problema delle PMI italiane: gli strumenti che già usano
Meta è un caso estremo e visibile. Ma il rischio reale per le PMI italiane è più sottile.
Molte aziende hanno già adottato strumenti AI per la gestione del personale, la valutazione delle prestazioni o il monitoraggio della produttività, spesso senza sapere che rientrano nella categoria degli AI ad alto rischio:
- ▶Copilot for Microsoft 365 con analytics sull'utilizzo dei dipendenti
- ▶Strumenti HR AI per la valutazione automatica dei candidati
- ▶Software di code review AI che genera valutazioni sulle prestazioni degli sviluppatori
- ▶Sistemi di scheduling AI che ottimizzano i turni valutando l'efficienza individuale
Nessuno di questi strumenti è illegale in sé. Ma se vengono usati per monitorare, valutare o prendere decisioni sui lavoratori, diventano sistemi AI ad alto rischio e attivano obblighi normativi che nella maggior parte delle PMI non sono stati soddisfatti.
Cosa succede se non ci si adegua
L'AI Act prevede sanzioni fino al 3% del fatturato mondiale annuo per la mancata conformità dei sistemi ad alto rischio, e fino al 6% per violazioni dei divieti assoluti.
Ma il rischio non è solo economico. Una PMI che usa strumenti AI per valutare i dipendenti senza i requisiti dell'AI Act può trovarsi esposta anche a contenzioso lavoristico — i lavoratori hanno diritto a non essere soggetti a decisioni automatizzate significative senza supervisione umana.
Il punto
Meta fa notizia perché è grande. Ma il meccanismo che descrive il NYT — usare l'AI per misurare, valutare e pressare i lavoratori — non è esclusivo delle big tech. È una tentazione che riguarda ogni organizzazione.
In Europa esiste un quadro normativo che protegge i lavoratori da questa deriva. Il problema è che molte PMI stanno adottando strumenti AI senza sapere dove si collocano rispetto a questo quadro.
Sai se gli strumenti AI che usi nella tua azienda rientrano nei sistemi ad alto rischio sotto l'AI Act?
Gli strumenti AI che usi in azienda sono conformi all'AI Act?
Tomato Blue supporta le PMI nella gap analysis AI Act e nella verifica della conformità degli strumenti AI già in uso per la gestione del personale.
Richiedi una Gap Analysis gratuita →