Documento

Ed ecco la bozza di Relazione illustrativa


* * *
Focus

Diritto e intelligenza artificiale: opportunità e dilemmi nell’era della automazione


Data pubblicazione
06 marzo 2022

Scarica PDF

Focus

TORNA INDIETRO

Simone Pesucci


Sommario: 1. Premesse; 2. Analisi dell’intelligenza artificiale; 3. Le nuove figure professionali al servizio dell’I.A.; 4. Intelligenza artificiale e responsabilità; 5. Intelligenza artificiale in tribunale; 6. Conclusioni.


 

1.        Premesse

L’economia globale è entrata ormai totalmente nella sua era digitale: superando infatti la fase iniziale di industrializzazione e successiva automazione dei processi produttivi, è approdata grazie alle moderne tecnologie nel campo immateriale del world wide web, poggiando su di esso non soltanto la propria architettura commerciale ma anche la sua visibilità, il branding, il proprio bacino di clientela e, in ultimo, le risorse umane e artificiali per l’azienda.

E’ stato un processo lungo e complicato, specialmente per determinati settori tradizionalmente più ancorati ad una fisicità oggettiva in cui operare, che però è giunto ad una maturità tale da non poter essere più ignorato quale elemento fondante e distintivo per valorizzare un marchio aziendale: è indubbio che nell’era moderna qualunque attività che non abbia una corrispondente vetrina digitale – più o meno articolata – sia ritenuta nel migliore dei casi come meno appetibile; nel peggiore come “inesistente” o scarsamente affidabile.

Se fino ai primi anni 2000 però il concetto di visibilità digitale era relegato alla semplice presenza “passiva” di un sito o di un form per il contatto, oggi siamo ormai abituati ad una diversa immagine virtuale: l’azienda deve farsi avanti continuamente, deve sviluppare strategie di marketing compatibili e sensibili che possano aderire non soltanto al semplice e vasto complesso digitale ma anche saper interagire tramite i “social” con la potenziale clientela per raggiungerla e catturarla.

Questo radicale cambiamento è dovuto alla trasposizione dell’utenza nel mondo del web in cui passa gran parte della propria giornata, lavorativa e non, con la conseguenza che l’impresa moderna è costretta ad investire molte risorse nella propria immagine social, sviluppando una articolata sensibilità per l’attualità e i temi polarizzanti che possono via via alternarsi anche in pochissime ore.

Il costrutto digitale del complesso aziendale deve quindi essere responsivo e veloce, rapido ed efficace; rispondere in maniera semplice ad esigenze molto complesse: per farlo, per restare competitivi, oggi in ausilio dell’impresa esistono numerosi strumenti creati specificamente per elaborare il risultato cercato analizzando milioni se non miliardi di variabili possibili: comunemente chiamiamo questi programmi intelligenze artificiali.

L’immagine restituita dal termine “intelligenza artificiale” è però spesso inquinata da una serie di costrutti mentali che la nostra cultura ci raffigura nel momento stesso in cui viene pronunciato: è un termine scomodo ma veritiero perché lo strumento creato dall’uomo agisce e opera in maniera simile alla nostra intelligenza; e non potrebbe essere altrimenti, dal momento che noi stessi ne siamo i creatori.

Ecco perché l’imprenditore, da sempre all’affannosa ricerca di certezze in un mondo, quello dell’economia, fatto di ragionevoli probabilità (al massimo), trova nell’intelligenza artificiale conforto e timore: il primo, perché l’I.A. offre una rapidità di calcolo e di risoluzione impossibili per il più esperto professionista; il secondo perché la stessa può anche offrire scenari nefasti legati a prospettive di crollo aziendale che l’imprenditore preferirebbe non conoscere mai.

Quel che è certo è che l’Intelligenza Artificiale offre la verità, ma non sempre risponde al desiderio; con il risultato di risultare una Cassandra odiosa predittiva di sventure.

L’approccio migliore per avvicinare questi strumenti è quello di essere quanto più ragionevolmente edotti sul loro funzionamento, in modo da accettarne i risultati offerti ed essere in grado di cavalcarli a proprio vantaggio: occorre sempre anche da parte dell’imprenditore un approccio attivo e mai di semplice accettazione della realtà.

 

2.        Analisi dell’intelligenza artificiale

Posto a fondamento dell’intero processo intellettivo – anche di quello umano – vi è un complesso di algoritmi che partendo da una serie di ipotesi giungono alla postulazione di tesi che successivamente vengono sottoposte ad un processo di verifica.

Il sistema artificiale si comporta sostanzialmente nella stessa maniera: il programmatore fornisce un logaritmo al programma che lo mette in azione ponendo due variabili a confronto un numero elevato di volte fino a riscontrare tra di esse una correlazione, che pone come tesi: è il processo più semplice di machine-learning, quello in cui la macchina apprende per tentativi partendo però da una serie di dati forniti dall’uomo.

Il ragionamento matematico operato dal sistema è quello della regressione lineare, ovvero il sistema che consente di prevedere il valore di una variabile partendo dall’analisi del valore di una diversa variabile.

Possiamo intuitivamente ricondurre un procedimento analogo al rapporto tra reddito e consumi.

E’ questo il modello più elementare di intelligenza artificiale che viene ancora oggi spesso utilizzato all’interno del sistema aziendale per la gestione dei turni di lavoro[1] (“celebre è il caso dell’algoritmo Frank, recentemente portato alle cronache dal Tribunale di Bologna che ha sanzionato una nota società di delivery per pratiche scorrette nella determinazione e assegnazione dei turni di lavoro ai propri “rider”[2]).

L’intelligenza artificiale sviluppata su questo modello opera in un sistema chiuso, pertanto non le è possibile svolgere analisi e giungere a conclusioni diverse dal modello di algoritmo fornito dal suo creatore: questo perché l’insieme dei dati iniziali da cui effettua le proprie analisi statistiche è fornito da utenti o dal programmatore stesso.

Ben più approfondita è strutturata è l’intelligenza artificiale sviluppata su modello di cd Deep Learning[3]: in questo caso la macchina non parte da alcun dato iniziale, ma è unicamente creata sulla scorta di una serie di sinapsi digitali formate da algoritmi primordiali che lei stessa può modificare per adeguarli ad una situazione mutevole.

Una macchina così costruita è in grado non soltanto di evolvere i propri meccanismi logici ma di crearne di nuovi qualora la situazione lo richieda.

L’esempio più semplice di questo tipo di intelligenza artificiale è il sistema predittivo di riconoscimento dei motori di ricerca moderni: l’intelligenza artificiale, dopo aver analizzato miliardi di richieste di ricerca, ha costruito una propria rete neuronale in grado di predire i risultati voluti o anche di completare la parola digitata sulla scorta delle proprie necessità e preferenze, adeguando l’algoritmo ai dati ricavati da una singola e personale esperienza; in tal modo l’intelligenza artificiale è in grado di modellarsi in forma diversa a seconda dell’utente che ha di fronte, replicandosi in miliardi di modelli diversi, tanti quanti sono i soggetti che si accingono a chiederle un determinato risultato.

Questo schema estremamente sintetico diventa di primario interesse traslando questa programmazione all’interno del modello imprenditoriale: a tal fine sono nel tempo sorte tantissime programmazioni in grado di aiutare l’impresa, ad esempio, a perfezionare e circoscrivere il recruiting, provvedendo ella stessa a compiere la ricerca di candidati per una specifica posizione sulla base delle competenze da questi indicate nei vari social dedicati alla vetrina professionale o nei sistemi che ne caricano le offerte di lavoro; ma l’intelligenza artificiale risulta altresì un validissimo alleato per registrare e verificare il posizionamento sul mercato del proprio core business[4]: una verifica anche predittiva, indicando al sistema le caratteristiche del prodotto questo può individuare l’insieme di potenziali soggetti che ne possano beneficiare.

E ancora nel campo strettamente economico: analizzando l’andamento dell’attività, i flussi aziendali e segnalando in

anticipo le criticità che potessero sorgere per eventi endogeni che esogeni.

Il terreno in cui si può muovere l’intelligenza artificiale è vasto e delicato, non immune anche da valutazioni di opportunità che esulano dal semplice risultato ideale: quando è opportuno, per minimizzare il rischio d’impresa, affidarsi al massimo ad una decisione presa da un calcolatore oggettivo? Quanto è etico, sotto il profilo quindi del rapporto con i propri dipendenti, con i partner strategici e con la propria clientela?

Sono queste le domande forse più importanti per poter interagire con successo con i nuovi sistemi digitali senza farsi mai sopraffare da essi, ma traendone il miglior insegnamento possibile.

 

3.        Le nuove figure professionali al servizio dell’I.A.

Fino a pochi anni fa si riteneva che i sistemi di Intelligenza Artificiale trovassero concreta applicazione solo su modelli imprenditoriali settorialmente dedicati (ad esempio industria digitale, macchine per diagnostica, portali online); ma lo sviluppo e l’estrema personalizzazione di questi programmi ha reso possibile per ogni tipologia di impresa poterne sfruttare il potenziale.

Per tali motivi anche la piccola e media impresa ha cominciato ad avvicinarsi all’intelligenza Artificiale, cercando di capire in che modo potesse agevolarne l’attività.

L’imprenditore ha infatti compreso che i sistemi di IA non sono caratterizzati da una complessità di utilizzo, bensì, al contrario, la loro essenza è proprio quella di ridurre tempo e costi ottimizzando i processi naturali dell’impresa in maniera assolutamente automatica.

Quando si parla di gestione dell'impresa si deve includere non soltanto l’organizzazione quotidiana del lavoro e il controllo quindi sulla produzione, ma anche una analisi dei dati preordinata ad aiutare l’impresa nel proprio sviluppo futuro, portando nuove strategie di vendita, supporto al cliente e produzione.

Come abbiamo visto l’unica necessità di cui ha bisogno per lavorare in maniera efficiente è un quantitativo importante di dati che l’azienda sia in grado di fornire.

L’elaborazione di questi dati permette al motore dell’I.A. di lavorare a pieno regime consegnando i risultati richiesti.

Questi risultati sono di enorme aiuto per la gestione manageriale ma ne consegue che dietro il corretto utilizzo dei nuovi sistemi vi siano altrettante nuove figure di riferimento.

Con la crescente automatizzazione delle attività (soprattutto quelle ripetitive e a basso costo) si verificherà una sostituzione di figure operative: “da colui che fa a colui che controlla il macchinario che produce”.

In effetti la rivoluzione operata dall’automazione e adesso dall’intelligenza artificiale può essere efficientata solamente introducendo nuove figure aziendali specificamente designate per il loro rapporto con i programmi: di spicco è la figura del CIO (Chief Innovation Officer) che si occupa appunto di traghettare l’impresa verso le nuove tecnologie.

Ma abbiamo anche già visto come nel campo di Marketing e Recruiting siano quindi necessari soggetti in grado di saper lavorare su personal branding o il growth hacking[5]

Questi segnali si traducono nel dualismo costante che da un lato suggerisce un aumento di opportunità di lavoro e dall’altro evidenziano il segnale opposto: in entrambi i casi la responsabile è l’automazione.

Al momento si ritiene però che più una azienda investe in robotica, più il numero di lavoratori che si occupano di attività complementari ad essa crescerà (reinstatement effect)[6]. Ovviamente per creare questa opportunità occorre formare una nuova classe di lavoratori e questo richiede un investimento importante, senza il quale l’intero processo di automazione rischia di non dare i risultati attesi.

Per farlo occorrono politiche importanti di Reskilling e soprattutto una efficace lotta contro due effetti molto temuti in questo campo: lo skill bias technical change (ovvero la difficoltà per i lavoratori a bassa specializzazione di affrontare il progresso tecnologico) e il routine bias technical change (ovvero la scomparsa dei lavori di routine per effetto dell’innovazione tecnologica).

Se la conduzione manageriale saprà cogliere l’opportunità e intraprendere questo complesso percorso di rivoluzione tecnologica al servizio dell’azienda, il risultato sarà proprio quello di traghettare l’impresa in un mondo moderno e nuovo, sapendolo interpretare e navigare e non soltanto sopportare.

Per farlo occorre conoscere le principali figure che possono offrire un supporto utile per l’Intelligenza Artificiale: ci viene in soccorso uno studio effettuato dal MIT (Massachussets Institute of Technology) nel 2017 che ne ha individuate tre:

·           I Trainers: coloro che si occupano di correggere ed indirizzare i servizi basati su I.A. nell’interazione con gli esseri umani in situazioni complesse in modo da fornire comprensione ed empatia alla conversazione

·           Gli Explainers: coloro che si occupano di spiegare i dati forniti dall’I.A. al business leader giustificando decisioni potenzialmente dannose emerse da una analisi razionale

·           I Sustainers: coloro che devono garantire che i sistemi si comportino secondo le specifiche in base alle quali sono stati addestrati e progettati, correggendo eventuali attività anomale

E’ fondamentale che l’impresa sia dotata anche di queste figure per evitare che un uso sbagliato del software di I.A. porti più danni che vantaggi.

Questo però permette di capire che l’automazione non produce automaticamente disoccupazione, anzi: favorisce la creazione di nuovi posti di lavoro e di nuove figure all’interno dell’impresa.

 

4.Intelligenza artificiale e responsabilità

Un sistema di intelligenza artificiale è e deve sempre essere considerato uno strumento; ne consegue che interpretarlo come un sostituto di una reale controparte umana può tradursi in un enorme errore di valutazione.

Per tale motivo è indispensabile che l’impresa sia in grado di controllare costantemente l’attività del programma, valutandone anche eventuali risposte errate.

La recentissima storia evidenzia casi di errori grossolani causati da eccessiva autorità data all’Intelligenza Artificiale: il caso più importante è quello fornito da una nota multinazionale di commercio elettronico il cui software ha deciso in autonomia di licenziare 300 dipendenti agendo come direttore del personale poiché risultavano sotto lo standard fissato dall’algoritmo.

Con riguardo a tale fenomeno si è parlato di “licenziamento artificiale” che comunque risulta suscettibile di impugnazione al pari del licenziamento tradizionale qualora la macchina nel prendere la decisione non abbia preso in considerazione tutti i dati sul lavoratore.

Ma il problema principale ovviamente è quello del soggetto responsabile per l’errore provocato dalla macchina.

La questione, in ambito civilistico, pare di pronta soluzione, con il ricorso ai principi della responsabilità oggettiva ai sensi dell’art. 2054 c.c. ma il problema è più articolato.

Si deve anzitutto cercare di capire se il danno causato dalla macchina derivi da un difetto di fabbricazione – con conseguente responsabilità del costruttore – o da un difetto di utilizzo.

Si deve inoltre ricordare che in questo caso la macchina ha operato applicando un algoritmo interno e come tale si dovrebbe agire – tornando al caso sopra esposto - ipotizzando una illegittimità del licenziamento per insussistenza del fatto addebitato.

La conseguenza, quindi, potrebbe portare all’elisione dell’ingiusto licenziamento ma ad una difficile configurabilità del risarcimento del danno ex art. 2054 c.c.

Un tema molto più attuale è quello legato alla guida autonoma di livello 3 che ormai hanno raggiunto alcuni veicoli in circolazione: in caso di incidente causato da una vettura che procedeva in modalità automatica, la responsabilità del conducente – anche e soprattutto sotto un profilo assicurativo – scatta? O, diversamente, si dovrebbe ricercare la responsabilità nel costruttore per erronea progettazione del software di guida?

In questo caso, a seconda della natura dell’incidente si dovrà affrontare anche il problema della responsabilità penale che, laddove coinvolga un sistema di intelligenza artificiale, diventa assai più delicato.

Infatti mentre è assai agevole perseguire il dolo del soggetto che sfrutta un sistema di intelligenza artificiale per commettere un reato[7], diventa invece più complesso valutare la colpa.

Questo perché individuare una condotta nell’uso del sistema che possa aver colpevolmente indotto il programma a commettere un reato è decisamente complesso, per non dire apertamente irrealizzabile.

Ma cercando di dare uno sguardo più ampio ai nuovi sistemi di intelligenza artificiale si potrebbe cominciare a teorizzare per i modelli basati sulla rete neuronale evolutiva l’ipotesi del programma quale “autore del reato”. Questo scenario è tutto da scrivere, in quanto perseguire penalmente una macchina è un campo di azione ancora inesplorato.

In ogni caso è indubbio che ogni volta in cui la commissione di un reato si intreccia tra uomo e macchina avremo difficoltà a separare e bilanciare le rispettive ed effettive responsabilità[8]

La tematica è sempre più attuale e dovrà trovare una concreta teorizzazione giuridica a livello internazionale, in modo da consentire l’estensione dell’utilizzo di tali software senza il rischio di lacune applicative.

Ma al tempo stesso dobbiamo porci una domanda più importante: la responsabilità da algoritmo non corre il rischio di diventare una assenza di responsabilità, legata ad una progressiva e sempre più difficile probatio diabolica in capo al soggetto che ne deve dimostrare la fallacia?

E ancora: fino a dove è eticamente corretto che una intelligenza artificiale possa decidere sull’attività umana?

Ritornando al caso dell’ingiusto licenziamento, il problema non è soltanto quello di poter poi concretamente azionare la corretta procedura giuridica per sanzionarlo, ma anche quello di interrogarci sull’etica che consente in una società civile ad un programma di valutare la nostra efficienza lavorativa fino a decidere della nostra inutilità nella filiera aziendale.

Questo tema si ricollega all’importanza che tutti questi programmi siano sempre considerati solamente strumenti di lavoro e mai diventino sostituti: finché esisterà un Susteiner a controllarne il corretto utilizzo, fintanto che si potranno limitare a suggerire la decisione più logica, potremo essere certi di non superare il confine morale che affiderebbe ad una macchina il compito di giudicare le nostre azioni. E soprattutto, potremmo comunque individuare un soggetto parzialmente responsabile della condotta della macchina.

Ma è così in ogni campo?

 

5.   Intelligenza artificiale in tribunale

I sistemi A.I. sono ormai di larghissima diffusione in ogni campo, andando ad aiutare l’attività umana, agevolandola, in alcuni casi provando a sostituirla[9].

 In effetti, nei settori in cui il soggetto è chiamato a prendere una decisione dopo aver vagliato un numero elevato di casi simili, è comprensibile possa trovare sede e terreno fertile un sistema di A.I.

Tra questi sicuramente spicca il settore giustizia, con tutti i rilievi etici che, però, una scelta simile comporta.

I vantaggi sono tuttavia innegabili, a cominciare dall’inevitabile velocità che un sistema simile potrebbe applicare ad una serie di attività di ausilio per il giudice – che, salvo alcuni casi limite[10]- resterebbe un soggetto non artificiale.

A livello internazionale tra le soluzioni più innovative si devono segnalare:

-             l’ “A.I. Justice Challenge”, progetto varato dalla British Columbia per il sistema giudiziario canadese: un portale attraverso cui i cittadini possono attraverso la compilazione di un form o anche attraverso un sistema di chatbot avere risposte immediate e concrete su problemi giuridici. Il sistema consente anche un tracking continuo delle pronunce processuali, elaborando da esse i dati che vengono poi posti a servizio degli utenti per aumentare l’accuratezza delle risposte ai quesiti.

-            Il sistema di E-Justice in Estonia, che ha consentito al paese, rimasto fermo al medesimo numero di giudici di venti anni fa, di gestire il doppio delle cause annue rispetto al medesimo periodo. L’intento Estone, avviato nel 2019 e tutt’ora in uso, è quello di affidare al giudice artificiale la decisione su alcune questioni elementari, snellendo la macchina della giustizia. Ad oggi è tuttavia ancora legato a processi umani e l’A.I. semplicemente sfrutta il proprio algoritmo per la casistica e l’applicazione predittiva in ausilio al giudice umano.

In modo analogo anche in Italia ha trovato immediato riscontro la “Giustizia predittiva” un termine con il quale ci si riferisce a tutti i programmi che consentano di analizzare grandi quantità di informazioni, filtrandole in base all’effettiva rispondenza al caso a loro sottoposto, e così generare una risposta che potrebbe anticipare l’esito del giudizio.

Il nostro sistema di norme peraltro agevola tali strumenti, poiché i principi dettati dagli artt. 3 e 101 della legge Costituzionale delimitano molto l’autonomia interpretativa, vincolando il giudice e quindi confermando la possibilità ragionevole di poterne prevedere la decisione finale.

E’ un sistema partito da lontano, che ha sfruttato, prima di giungere ai più recenti applicativi, algoritmi di machine learning di cui abbiamo già trattato: basti pensare al funzionamento delle moderne banche dati, strumenti indispensabili per l’operatore del diritto che consentono a questi di individuare la casistica legata alla fattispecie in esame, filtrandola non soltanto per importanza del grado di giudizio, ma anche per territorio, così da individuare anche gli orientamenti di uno specifico Tribunale laddove vi siano questioni controverse.

Il primo segnale concreto è stato fornito dal Consiglio di Stato, nella sentenza num. 2270 del 08 Aprile 2019, in cui ha analizzato l’algoritmo che indicava la nomina ed il trasferimento dei docenti. La decisione introduce il tema della robotizzazione della P.A., statuendo ed applicando ad essa i principi già introdotti dal GDPR.

In particolare il Consiglio di Stato legittima le procedure automatizzate amministrative anche nell’attività discrezionale della Pubblica amministrazione; e ne indica dettagliatamente criteri e limiti, aprendo uno scenario finora inedito: quello della responsabilità del titolare del potere pubblico riguardo alla corrispondenza dell’algoritmo utilizzato al principio di legalità. La pronuncia in particolare afferma che la mancata trasparenza con cui si chiarisce come funziona l’algoritmo si traduce nella responsabilità di cui è titolare il potere pubblico, divenendo vizio tale da inficiare la procedura stessa.

Ma l’I.A. si è spinta oltre, con il progetto realizzato in collaborazione con l’Istituto Sant’Anna di Pisa, e precisamente con Lider Lab che ha raccolto pronunce giurisprudenziali annotandole semanticamente: il sistema ha infatti evidenziato in ciascuna pronuncia delle espressioni standard utili per riconoscere e distinguere ogni elemento decisionale del giudice e poter ricondurlo ad una fattispecie precisa.

Questa catalogazione consentirebbe al sistema di creare un algoritmo predittivo estremamente efficace. Ma l’area di indagine non si è fermata qui, poiché a questo sistema, anche solo per necessità di indagine, si sono affiancati altri sotto-sistemi (nel principio della rete neuronale sopra menzionata) tra cui il database Legal Document Management System (LDMS) che ha l’obiettivo di sviluppare strumenti informatici per l’analisi della giurisprudenza e dei testi giuridici al fine di consentire l’accesso immediato a precedenti giurisprudenziali automaticamente annotati e arricchiti a livello semantico, creando archivi giurisprudenziali innovativi in  grado di individuare le tipologie di sentenze all’interno della decisione e collocarle nel contesto di riferimento, per favorire l’analisi e la creazione delle corrette argomentazioni giuridiche, ed identificare i fattori determinanti nelle decisione del giudice.

Un sistema analogo è stato sviluppato e presentato a Novembre 2021 dall’Università di Brescia, in collaborazione con la Corte di Appello e con il Tribunale: in questo caso è stato creato un sito che raccoglie una casistica giurisprudenziale approfondita sul settore dell’economia e del lavoro, che fornisce all’utente dopo la prima ricerca iniziale una casistica alternativa aggiornata per similitudine espressiva o identità, anche in questo caso sfruttando una analisi semantica ricorrente all’interno del provvedimento stesso.

Anche la Suprema Corte ha deciso di far entrare l’I.A. nelle sue aule, avviando con l’Università di Pavia un accordo di collaborazione che prevede la predizione dell’esito dei processi decisionali giudiziari, amministrativi, e politici, l’estrazione di argomenti giuridici dal corpus delle sentenze e la creazione automatica di massime, una serie di strumenti di creazione automatica di documenti, nonché altre possibilità di valorizzazione del patrimonio documentario della Cassazione.

A livello Europeo si è posto ben presto il problema etico dell’utilizzo dei sistemi artificiali per valutare e decidere la condotta umana: ne è prova la “Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti” emanata dalla Commissione Europea per l’efficacia della giustizia il 04 dicembre 2018.

Il documento per la prima volta pone rilievo sull’impatto di tali strumenti in ambito giurisdizionale, indicando quattro punti cardinale da seguire:

1)principio del rispetto dei diritti fondamentali; 2) principio di non discriminazione; 3) principio di qualità e sicurezza; 4) principio di trasparenza; 5) principio di garanzia dell’intervento umano.

L’ultimo punto è determinante, poiché rileva l’importanza dell’utilizzatore dello strumento e che le scelte suggerite dall’intelligenza artificiale si traducano sempre in una decisione finale demandata esclusivamente all’uomo.

Questo ovviamente risponde anche alle esigenze già evidenziate in ordine alla responsabilità in caso di danno provocato dalle indicazioni dell’A.I.

La finalità è scongiurare l’approccio deterministico ovvero che l’automatismo nelle scelte che possa portare ad una standardizzazione costante delle pronunce.

 

6. Conclusioni

E’ assai complesso cercare di mettere un punto ad un argomento così naturalmente in divenire quale quello dell’applicazione di sistemi di intelligenza artificiale al nostro mondo economico e giuridico.

La perseverante ricerca di snellire i processi, velocizzare le operazioni, abbattere i costi e garantire uno standard qualitativo minimo contrasta con la scelta etica legata al modello umano, all’ideale supremazia del nostro intelletto sulla macchina, suggerito dal processo creativo che ha portato noi a costruire quest’ultima e non viceversa.

Peraltro sulla presunzione innata che la nostra mente sia meno fallibile di quella artificiale, diffidiamo del sistema di A.I. preferendogli un soggetto che è però calato in una realtà complessa a cui è sottoposto e che fornisce al cervello continui e differenti input emozionali, distraendolo, plasmando le proprie convinzioni, suggestionandolo.

D’altro canto la tutela etica è indispensabile non soltanto perché il nostro ordinamento giudiziario (e in generale l’ordinamento giudiziario mondiale) non è pronto alla personalità artificiale quale centro autonomo di responsabilità civili o penali, ma anche perché in assenza verrebbe meno la garanzia generata dal valore emozionale della pena: come potremmo insegnare ad un algoritmo la pietas, l’importanza della tutela dei soggetti deboli, delle classi sociali nella fredda logica del rapporto di lavoro, nel complesso dei legami affettivi da affrontare nel diritto di famiglia, fino alla decisione – terribilmente attuale – del drone militare che seleziona i propri bersagli?

Il progresso – ce lo insegna la storia – è però un meccanismo complesso cui non si può sfuggire: possiamo solo cavalcarlo, imparando a conoscerlo e decidere in maniera “predittiva” come affrontare l’integrazione tra questi sistemi e la nostra vita di tutti i giorni.

L’imprenditore potrà sfruttare la nuova tecnologia per affrontare meglio gli imprevisti di un mercato moderno, veloce e spietato; potrà anzi e meglio affrontare e riconoscere segnali di crisi, porvi rimedio, limitare i danni, nel peggiore degli scenari.

Il giurista potrà contare su un supporto indispensabile per affinare la difesa adattandola al contesto giuridico, all’ultimo orientamento giurisprudenziale, per il miglior risultato possibile a tutela del cliente.

Il Giudice potrà contare su uno strumento importante per l’indagine della casistica e per una massimizzazione delle sentenze che possa agevolare la stesura delle nuove pronunce.

Mai come adesso è importante ricordare di restare umani, laddove di soggetti che umani non sono, si sta già riempiendo il mondo.



[1] La gestione elettronica delle risorse umane (riassunta nell’acronimo e-HRM – electronic human resource management)è ormai di largo utilizzo nei moderni sistemi aziendali, raggiungendo obiettivi di efficienza e costi ridotti attraverso un sistema automatizzato che permette di migliorare il servizio finale reso alla clientela. Oggi dopo oltre un decennio di utilizzo queste tecnologie si sono trasferite in cloud, permettendo una gestione continua e costante del proprio personale  dipendente. Tra i software più utilizzati in Italia ricordiamo CEZANNE – www.cezannehr.com, PERSONIO – www.personio.it e ODOO – odoo.com. Si è oltretutto passati da una semplice gesstione organizzativa interna ad una più estesa attività di recruiting, che permette all’Intelligenza artificiale di individuare i soggetti migliori per le posizioni aziendali vacanti attraverso moltissimi filtri di indagine accurati e personalizzabili per l’imprenditore. Il risultato è un balzo avanti nella gestione risorse umane riducendo margini di rischio e fornendo all’azienda una generale impressione di controllo globale sull’andamento dell’attività e la soddisfazione dei propri dipendenti.

[2] Ci si riferisce all’Ordinanza emessa dal Tribunale di Bologna il 31.12.2020 in accoglimento del ricorso presentato da alcune associazioni sindacali ai sensi dell’art. 5 comma 2 Dlgs 9 luglio 2003 n. 216 contro una nota società di food delivery poiché il sistema informatico che gestiva le prenotazioni dei turni di lavoro dei riders avrebbe operato una forma di discriminazione indiretta: infatti i turni venivano assegnati in base ad un sistema di prenotazioni a tre fasce orarie.  Ciascun rider veniva collocato in una delle tre fasce sulla scorta di un proprio punteggio reputazionale che l’algoritmo calcolava sulla base di due parametri, la partecipazione e l’affidabilità basata sull’effettiva partecipazione ai turni prescelti o quantomeno sulla tempestiva disdetta comunicata con un preavviso di almeno 24 ore. La discriminatorietà riguardava proprio quest’ultimo parametro poiché l’algoritmo non prendeva in considerazione le motivazioni per cui il rider non ha partecipato al turno precedentemente scelto. L’algoritmo penalizzava allo stesso modo sia il rider che non aveva partecipato al turno prescelto per scarsa professionalità sia quello che non aveva potuto partecipare perché malato o perché aveva deciso di aderire ad uno sciopero. Tale sistema costituisce una forma di discriminazione indiretta. In base all’art. 2 lett. b) del Dlgs 216/2003 per discriminazione indiretta si intende una disposizione, un criterio, una prassi, un atto, un patto o un comportamento apparentemente neutri, ma che possono mettere le persone che professano una determinata religione o convincimento personale (e in questo caso rientrava l’ipotesi di aderire ad uno sciopero indetto della organizzazioni sindacali), le persone portatrici di handicap le persone di una particolare età o di un orientamento sessuale in una situazione di particolare svantaggio rispetto alle altre. Nel caso di specie venivano inoltre discriminati, come sostenuto dalle associazioni ricorrenti, i riders che aderivano ad uno sciopero. Tuttavia il Tribunale ha rilevato come il sistema discrimini anche i riders malati essendo alquanto improbable che un rider possa prevedere il proprio stato di malattia almeno 24 ore del turno prescelto.

[3] Può sembrare complesso comprendere la differenza tra il metodo di auto-apprendimento o machine learning ed il metodo di apprendimento profondo o deep-learning nell’analisi di una intelligenza artificiale. Anzitutto si deve partire dal concetto di apprendimento automatico chiarendo che una macchina lo sfrutta quando il proprio algoritmo “analizza i dati forniti dalla programmazione, impara da essi e utilizza quanto appreso per prendere decisioni informate”. Un esempio abbastanza semplice di tale I.A. è quello offerto dai vari servizi di streaming che “suggeriscono” all’utente ascolti o visioni sulla scorta dell’analisi dei dati forniti da ascolti e visioni di utenti con gusti simili. In realtà l’apprendimento profondo è solo una versione migliorata del metodo di apprendimento automatico, in cui la macchina sfrutta una rete neuronale per prendere autonome decisioni. Per fare un ulteriore esempio si possono citare i numerosi applicativi che consentono di operare in borsa senza averne le eventuali approfondite conoscenze – tra essi il sistema recentemente più noto è quello della piattaforma etoro che effettua operazioni di copytrading suggerendo all’utente investimenti analoghi a quelli effettuati da altri investitori con profili simili. L’enorme espansione di questo meccanismo di I.A. si è avuto di recente proprio grazie all’ingresso di tali sistemi nelle piattaforme Social, in grado di offrire loro miliardi di dati in continua evoluzione che possono analizzare per rendere quanto più possibile accurati i risultati forniti al loro utilizzatore.

Tali sistemi di apprendimento automatico o machine-learning restano però sempre ancorati ad un universo binario decisionale, in cui alla fine su base statistica il programma offre soluzioni bidirezionali senza alcun processo evolutivo.

In sostanza qualora il programma restituisse risposte non coerenti, solo il programmatore potrebbe intervenire per modificare l’algoritmo e reindirizzare il software verso il range desiderato.

Una I.A. basata su un sistema di deep learning, pur funzionando in linea di massima in modo analogo ad un sistema di Machine-learning, è in grado attraverso algoritmo di controllo (o, appunto, una serie concatenata di algoritmi di profondità, da cui il termine “deep”) a verificare essa stessa se i risultati risultano coerenti con le premesse; e sia in caso positivo che in quello negativo, a trarne conclusioni che possono indurre la macchina a modificare l’algoritmo iniziale per migliorare la linearità della risposta finale. Questa struttura ad algoritmi multi livello è chiamata rete neurale artificiale e funziona in modo imitativo dell’intelligenza umana. A differenza della I.A. ad apprendimento automatico, il modello di Deep Learning necessità di moltissimo allenamento per giungere a risultati coerenti con le aspettative: questo perché non vi è nessun soggetto umano pronto a suggerire le risposte possibili e pertanto deve essere messa in condizione di sbagliare un numero così elevato di volte da individuare l’errore e provvedere in autonomia a correggere la propria sequenza.

Il risultato finale però è assolutamente simile a quello del nostro processo di apprendimento, velocizzato dalle capacità di computo del sistema elettronico, restituendo quindi ottimi risultati in un tempo comunque molto ragionevole.

[4] Negli ultimi anni abbiamo assistito all’esplosione del modello di core business basato sul posizionamento digitale della propria azienda. Da un lato ciò è stato possibile grazie a numerosi strumenti che possono verificare l’efficacia di penetrazione nel mercato del brand di riferimento (il SEO BUILDING è parte ormai determinante per le attività di qualunque livello, poiché la capacità di emergere nel motore di ricerca in base ai desideri del proprio bacino di clientela è determinato non soltanto dal corretto posizionamento digitale – chiavi di ricerca e numero di accessi al sito – ma anche dall’autorevolezza restituita dal sito aziendale; ne consegue un lavoro in costante sviluppo che l’impresa deve portare avanti per posizionarsi efficacemente e mantenersi posizionata in modo da non perdere il filo diretto con i propri clienti. Basti pensare all’importanza delle Off-sites, ovvero dell’essere citati all’interno di siti autorevoli diversi dal proprio (con il termine corretto di Back-links). Se tutto questo fino a qualche anno fa era sufficiente farlo con il monitoraggio dei motori di ricerca rispetto al proprio sito, oggi è possibile navigare anche i social, consentendo una giusta pubblicità dei propri prodotti adeguata al modello di cliente che si desidera attrarre. Le I.A.  svolgono anche in questo caso un ruolo indispensabile, dal momento che sarebbe impossibile per una persona fisica verificare continuamente ogni articolo e pagina del proprio sito, pagina fb, pagina linkedin, account instagram o twitter, per verificare il corretto uso delle parole chiave adeguata al proprio core business e al tempo stesso che possano essere restituite all’utente standard sulla base delle ricerche corrette.

[5] Il Growth Hacking è un processo di sperimentazione attraverso diversi canali volto ad identificare i modi più efficienti per far crescere l’azienda. E’ considerata attualmente una delle chiavi più importanti per far emergere la propria attività nonché la “formula magica” per qualunque attività di marketing. Si sviluppa attraverso l’analisi delle necessità dell’impresa, andando a selezionare quali elementi cardine si vuol far crescere, tra vendite, clientela, brand.

Il termine richiama la parola Hack, ovvero una sorta di “trucco” che consente di ottenere risultati rapidi non raggiungibili per via ordinaria. Un esempio banale è stato il sistema di referral operato da Dropbox che concedeva ulteriore spazio di archiviazione per ogni persona a cui si consigliava Dropbox. In tempi più recenti si è enormemente sviluppato il social Clubhouse con un sistema ad inviti inizialmente dedicato solo ad utenti Apple che quindi invogliava ed incuriosiva le persone ad iscriversi. Questi hack non sono casuali; infatti le aziende li hanno individuati facendo centinaia di test per trovare una soluzione che funzionasse. Quindi il meccanismo di Growth Hacking è più simile ad uno studio scientifico che ad un trucco, poiché parte da una teoria per giungere, attraverso una sperimentazione scientifica, a creare una formula di successo.

[6] Questo effetto è emerso anche durante il World economic Forum che aveva preventivato già nel 2018 che entro il 2025 l’automazione causerà una perdita di 75 milioni di posti di lavoro ma al contempo creerà 133 milioni di nuovi posti con un saldo positivo di 58 milioni.

[7] La casistica comprende principalmente “crimini informatici, economici ed ambientali, i traffici internazionali di stupefacenti e di altri prodotti illeciti, ma anche le violazioni in materia di privacy e trattamento dati personali, le violazioni della proprietà intellettuale ed industriale, i reati di diffamazione e le condotte di abuso della credulità popolare, magari commessi attraverso bot che creano fakenews destinate alla rete. Due esempi immediati: il fenomeno del bagarinaggio online, ovvero l’accaparramento tramite un bot di acquisto automatico di un numero elevato di biglietti per un evento allo scopo di rivenderli ad un prezzo più elevato – per prevenirlo nella legge Bilancio 2019 all’art.1 comma 1100 è stato introdotto l’obbligo del c.d. biglietto nominativo per eventi con più di 5000 spettatori; altro esempio più complesso è quello legato agli HFT (High Frequency Traders) ovvero sistemi in grado di comparare in poche frazioni di secondo numerosissime variabili nel campo del trading provocando immediate ed elevatissime oscillazioni dei prezzi sui mercati finanziari (fenomeni di aggiotaggio, manipolazione abusiva del mercato etc.)(Sul punto si veda anche F. Consulich, il nastro di Mobius, intelligenza artificiale ed imputazione penale nelle nuove forme di abuso del mercato, in Banca e Borsa, Titoli di Credito, 2018, pp.195 ss)

[8] Si innesca un processo di alienazione della responsabilità dell’uomo quantomeno per la parte di cd “responsabilità morale”: si pensi all’utilizzo di droni militari in zone di guerra.

[9] Tra i sistemi di “sostituzione artificiale” uno dei più recenti è quello di proporre dei veri e propri agenti virtuali in grado di gestire contemporaneamente operazioni a loro assegnate e funzioni di management aziendale, quali Amministrazioni e finanza, vendite, logistica e acquisti, produzione e Marketing. Non si tratta in questo caso di software ausiliari al referente umano ma sistemi di intelligenza artificiale che, alimentati costantemente dai dati forniti dall’impresa, sono in grado di apprendere il lavoro e svolgerlo in una situazione di sostanziale autonomia. Se, da un lato, è seducente l’idea di delegare integralmente ad un soggetto artificiale una determinata attività, riemerge anche in questo caso il problema della responsabilità in caso di errore: se la macchina non fornisce solo supporto ma è in grado di prendere decisioni autonome, come fare a imputare la responsabilità? E a chi? Questi temi ormai diventano come si vede sempre di maggiore attualità poiché le aziende attratte da questo mercato sono in aumento, con la conseguenza che presto in aula dovremo porci il problema del legittimato passivo artificiale, come già abbiamo avuto modo di constatare nel paragrafo precedente.

[10] Ci riferiamo al caso del primo giudice robot di Shangai, un software di intelligenza artificiale che è stato specificamente assunto ed è in attività per esaminare e decidere su frodi e sinistri stradali nella città cinese. Il software è in grado, in tempo reale, di comparare la dinamica del caso con decine di migliaia di casi analoghi accaduti in tutto il mondo e – grazie a tale algoritmo, prenderebbe una decisione praticamente immediata con una accuratezza del 97%. In realtà anche questo, sebbene sia stato presentato come un vero e proprio giudice artificiale, si limita a suggerire la decisione finale al Giudice in carne ed ossa che poi effettivamente scriverà la sentenza, ma indubbiamente un ausiliario così efficiente potrebbe ben presto non aver bisogno di una controparte umana