Intelligenza artificiale, sarà la sostituzione etnica dei lavoratori? Il sindacato apra un nuovo fronte

Rmag Breaking News

Le tecnologie digitali hanno un impatto rapido e potente sul mondo del lavoro. Ci sono, nell’insieme del fenomeno, aspetti sui quali il confronto è imponente e articolato ma, spesso, anche disordinato e confuso. Cerchiamo di costruire un panorama ragionato intorno a questo tema.

Nel dibattito sull’intelligenza artificiale si sono formati, come capita sempre, due schieramenti: coloro che ritengono che l’evoluzione che ci ha portati all’AI, con i suoi futuri sviluppi, avrà ripercussioni totalmente negative a livello sociale, occupazionale e via elencando; e coloro che, invece, sostengono esattamente l’opposto.

Tali posizioni contrastanti sono sostenute da soggetti come accademici, politici, grandi corporation. Alcuni si spingono, nel loro argomentare, fino a picchi parossistici e millenaristici, che includono la previsione dell’estinzione dell’umanità causata dall’AI. Ma la “tifoseria” non aiuta, certo, la comprensione della realtà.

Come sempre bisogna cercare di scendere dentro i processi. I quali, a loro volta, non sono ancora ben definiti. I risultati annunciati a fronte di massicci investimenti compiuti dalle Big Tech – molto spesso sollecitati con annunci e previsioni mirabolanti – somigliano, talvolta, più che a frutti di un reale e applicabile sviluppo tecnico a un battage pubblicitario.

Un impulso scaturito da un periodo nel quale il settore tecnologico, in particolar modo per quel che riguarda i servizi, dopo la crescita enorme dovuta al periodo pandemico, affronta anche passaggi critici, resi palpabili da consistenti ridimensionamenti dell’occupazione in giganti come Meta, Google, Microsoft e via elencando.

Gli interventi regolatori

Fatto sta che, in giro per il mondo, le Istituzioni hanno, comunque, sentito l’esigenza di intervenire sul piano regolatorio, sia per la tutela degli interessi nazionali che per quanto riguarda i diritti della cittadinanza.

Provvedimenti nei quali si sente, in primo luogo, il peso del teatro globale nel quale agiscono queste tecnologie che, nella loro immaterialità, non conoscono né riconoscono confini. E, in secondo luogo, le inquietudini accese dall’uso da parte di regimi totalitari di strumenti digitali per il controllo sociale e per penetrare le democrazie liberali con campagne di propaganda mascherate da interazioni sui social media.

Non è, perciò, un caso che uno di questi provvedimenti sia stato prodotto dalla riunione del G7 tenuta a Hiroshima a maggio dello scorso anno e che abbia preso, appunto, il titolo di “Hiroshima AI Process”.

Si tratta, in questo caso, dell’edizione di un codice di condotta volontario indirizzato alle organizzazioni “che sviluppano i sistemi di AI più avanzati, compresi i modelli di base e i sistemi di AI generativi”.

Per sommi capi, gli argomenti del codice sono la responsabilità nell’utilizzo dell’AI generativa, la lotta alla disinformazione, la salvaguardia della proprietà intellettuale, la tutela della privacy dei cittadini e dei diritti umani, la trasparenza nell’utilizzo dei dati, la protezione dei processi democratici.

Argomenti da considerare legittimamente ed estremamente sensibili, mentre vediamo, un giorno dopo l’altro, farsi strada la diffusione di quelle che vengono definite “deep fake news”, utilizzate nell’ambito di campagne politiche e come strumenti collaterali di guerra nei conflitti in corso.

In ottobre, invece, è intervenuta l’Amministrazione Biden con l’emissione di un Executive Order sull’AI. In sintesi, un “ordine esecutivo” è una direttiva governativa che non richiede l’approvazione del Congresso e non ha forza di legge, ma che guida l’operato delle agenzie federali nell’attuazione delle politiche presidenziali.

Di cosa si occupa, dunque, il documento intitolato “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” (Ordine esecutivo sullo sviluppo sicuro, affidabile e attendibile e l’uso dell’intelligenza artificiale)?

In sintesi, viene richiesta agli “sviluppatori dei più potenti sistemi di intelligenza artificiale di condividere i risultati delle loro valutazioni di sicurezza e altre informazioni critiche con il Governo degli Stati Uniti”.

Ma viene anche affidato alle agenzie federali il compito di sviluppare normative e percorsi analitici che impongano la sicurezza dei sistemi di AI. Per quel che riguarda le imprese, il Governo dovrà favorire la competizione, cercando di evitare la formazione di monopoli.

Per quel che riguarda la cittadinanza, ne dovrà essere protetta la privacy e dovrà essere salvaguardata da discriminazioni operate da algoritmi. Ancora, l’Ordine esecutivo stabilisce che i lavoratori dovranno essere tenuti al sicuro da impatti sulla loro condizione.

Il 13 marzo, invece, è stato il Parlamento europeo a licenziare il cosiddetto AI Act – del quale è stato relatore il parlamentare Pd Brando Benifei. Il quale ha sottolineato, al momento del voto, che si tratta della “prima legge al mondo sull’intelligenza artificiale”.

L’AI Act è, infatti, una legge dell’Unione europea per la regolazione del settore che entrerà in vigore ad inizio estate. Da quel momento si apre un percorso con una scansione temporale che prevede che le norme generali sull’AI si applichino un anno dopo l’entrata in vigore.

L’applicazione di obblighi specifici per i sistemi ad alto rischio – come quelli di identificazione biometrica, categorizzazione e riconoscimento delle emozioni – dovrà essere implementata in un arco di tre anni.

L’applicazione della legge avverrà sotto la supervisione delle autorità nazionali, supportate da un Ufficio creato ad hoc della Commissione europea. Gli Stati membri dovranno istituire agenzie nazionali per la supervisione del processo.

La legge vieta lo sfruttamento delle vulnerabilità di persone o gruppi in base all’età, alla disabilità o alla situazione socio-economico e la loro classificazione in base a dati biometrici per dedurre informazioni sensibili di natura razziale, politica o di orientamento sessuale. Così come sono interdette le pratiche manipolatorie e ingannevoli che pregiudichino la capacità decisionale dei cittadini.

Vengono vietati database di riconoscimento facciale costruiti mediante l’uso di immagini pubblicate su internet o estratte da telecamere a circuito chiuso: sostanzialmente sono vietate la profilazione e la valutazione delle caratteristiche di una persona. Questo, sommariamente, il quadro dell’attività regolatoria degli Stati che vede l’Europa all’avanguardia. Un dato confortante.

AI e lavoro: che succede per davvero?

Veniamo agli effetti dell’intelligenza artificiale sul mondo del lavoro. E, in merito, è il caso di citare l’edizione 2023 dell’indagine annuale del World Economic Forum “The Future of Jobs Report”, il cui obiettivo è esplorare come i lavori e le competenze evolveranno nei prossimi cinque anni.

La prima notizia da mettere in evidenza è che “il confine tra uomo e macchina si è spostato, con le imprese che introducono l’automazione nelle loro operazioni a un ritmo più lento rispetto a quanto precedentemente previsto.  Le organizzazioni stimano oggi che il 34% di tutte le attività aziendali sia svolto da macchine, mentre il restante 66% è svolto da esseri umani. Questo rappresenta un aumento trascurabile dell’1% rispetto al livello di automazione stimato dai partecipanti all’edizione 2020 dell’indagine”.

“Ma – prosegue l’analisi – mentre le aspettative riguardo alla sostituzione del lavoro fisico e manuale da parte delle macchine sono diminuite, si prevede che il ragionamento, la comunicazione e il coordinamento – tutti tratti con un vantaggio comparativo per gli esseri umani – saranno più automatizzabili in futuro. L’adozione dell’intelligenza artificiale, un fattore chiave della potenziale sostituzione algoritmica, è prevista da quasi il 75% delle aziende coinvolte nell’indagine e potrà portare a una forte oscillazione – con il 50% delle organizzazioni che si aspettano che crei crescita occupazionale e il 25% che si aspetta che causi perdite lavorative”.

Un nuovo fronte per i sindacati dei lavoratori

Insomma, un panorama in chiaroscuro che mostra l’estrema volatilità delle previsioni in merito all’impatto delle tecnologie sulla condizione dei lavoratori. E che, va sottolineato, richiede alle organizzazioni sindacali di impegnarsi su questo fronte, in primo luogo sul piano culturale e contrattuale.

In questo senso, un esempio di approccio alla questione viene da un’iniziativa della Uil, che ha dato vita a una riflessione sul tema dell’intelligenza artificiale. Infatti, è giusto che il sindacato, per stare al passo con i profondi cambiamenti in corso, si doti di strumenti che si propongano di intervenire attivamente e da protagonista su questa delicata materia.

Parliamo di una formazione continua che abbia l’obiettivo di facilitare l’adattamento delle pratiche sindacali di contrattazione all’implementazione dell’AI nel mondo del lavoro; di monitoraggio della produzione legislativa nazionale ed europea; di sviluppo del dialogo sociale su questo tema; dell’avvio di collaborazioni con enti accademici e di ricerca.

L’avvio di questa attività ci ricorda un punto fondamentale. Il sindacato ha prodotto la sua migliore elaborazione quando si è posto l’obiettivo di assumere, per la parte del lavoro, un ruolo di governo e di guida nei processi di cambiamento.

Ai lavoratori non serve un mero antagonismo. Il ruolo più concreto ed efficace del sindacato è quello di interloquire con le imprese e contrattare – oltre ai livelli retributivi, alla sicurezza e all’occupazione – la nuova organizzazione del lavoro, anche in relazione all’evoluzione tecnologica.

L’intelligenza artificiale è una nuova sfida da raccogliere esprimendo il meglio della cultura e della contrattazione sindacale anche al fine della più efficace tutela della condizione dei lavoratori in un mondo che ci costringe a confrontarci con mutamenti sempre più accelerati e dall’esito incerto.

Leave a Reply

Your email address will not be published. Required fields are marked *