Il nostro sito usa i cookie per poterti offrire una migliore esperienza di navigazione. I cookie che usiamo ci permettono di conteggiare le visite in modo anonimo e non ci permettono in alcun modo di identificarti direttamente. Clicca su OK per chiudere questa informativa, oppure approfondisci cliccando su "Cookie policy completa".

RESPONSABILITÀ DI UNA INTELLIGENZA ARTIFICIALE

Intelligenza artificiale: sono le parole magiche di cui sembra non si possa più fare a meno di parlare e di utilizzare in ogni ambito. “Quelli bravi” sono ancora più precisi e parlano di intelligenza artificiale generativa.

Cosa è l’intelligenza artificiale generativa o generazionale? È la capacità di apprendimento da parte di procedure informatiche (cd. deep learning), attraverso l’elaborazione di dati immagazzinati, di dare risposte o di creare testi in linguaggio simile a quello umano.

È interessante analizzare l’entusiasmo con cui i “neofiti” approcciano e idealizzano l’intelligenza artificiale generativa e il giudizio molto più severo di chi la conosce e la utilizza in maniera più approfondita, che la ritiene insoddisfacente e di chi - governanti, chiesa, istituzioni, operatori - ha chiesto creare un’algoretica: un’etica degli algoritmi che guidi la progettazione dell’intelligenza artificiale.

Una cosa deve essere però certa a prescindere dai giudizi personali, una strumento informatico (per semplicità la chiameremo “macchina”) per quanto avanzato, capace di elaborare miliardi di informazioni, di fornire risposte in nanosecondi, di essere sempre razionale e non emotiva, non può superare la mente umana in termini di ragionamento, creatività, capacità di riflessione.

La “macchina” non ha doti di preveggenza ma solo la capacità di offrire una plausibile ipotesi, che l’uomo con la sua irrazionalità ed emotività potrà sempre cambiare come sarà possibile che la stessa macchina fornisca risposte diverse da quella originaria dopo l’immissione e l’elaborazione di altri dati. Le macchine intelligenti lasciamole ai film di fantascienza, almeno per ora.

Non è un caso se le risposte fornite dal software informatico che chiamiamo intelligenza artificiale siano state definite “allucinazioni”. Se le risposte non sono sempre affidabili, in alcuni casi sono sbagliate o capaci di inventare situazione non vere, se sono frutto di allucinazioni, il problema da affrontare, oltre quello della fiducia nel loro operato, è quello giuridico.

Un tema a scuola o un articolo scritto con l’intelligenza artificiale al massimo può produrre un brutto voto o una stroncatura del giornalista, ma quando la risposta crea problemi ben più seri chi risponde del danno creato e chi deve risarcirlo.

La risposta più semplice è chi ha la gestione della “macchina”. È una delle possibili soluzioni in forza della quale l’eventuale danno creato a terzi deve essere rimborsato da chi gestisce l’applicazione dell’intelligenza artificiale. I fautori dell’intelligenza artificiale generativa, però, affermano che la “macchina” può creare risposte, nuovi profili alternativi, può sbagliare, può inventare: allora perché deve pagare il danno il programmatore che può non sapere a priori quale potrebbe essere la risposta basata su miliardi di dati che una volta elaborati la “macchina” possa fornire. Perché dovrebbe essere responsabile chi, operando senza dolo o colpa, ha immesso quei dati.

Se non fosse questa la soluzione si dovrebbe dire che il responsabile del danno è la “macchina”.; lei, però, non ha un proprio status giuridico e non ha un patrimonio per risarcire il danno. Alcuni hanno proposto di creare un fondo da utilizzare per il risarcimento dei danni causati dalle risposte fornite dalla “macchina”. Buona idea, ma chi dovrebbe alimentare il fondo: il programmatore, il proprietario della società che lo ha assunto, lo Stato a fine sociali o chi altro?

Per rispondere a queste domande e a tante altre che l’argomento solleva è giusta e doverosa l’iniziativa europea di emanare l’Artificial Intelligence Act: un regolamento che ha l’importante obiettivo di definire cosa si intenda per Intelligenza artificiale, per limitare i rischi, per stabilire le regole non solo per i paesi unionali ma per chiunque voglia operare in Europa.

La conclusione, quindi, non può che riconoscere l’importanza e l’utilità dell’intelligenza, dalla medicina all’instaurazione di un rapporto migliore con la clientela con tutto ciò che si può trovare tra i due estremi, in quanto capace di elaborare in maniera completa e rapida la storia del malato o del cliente e cosa è loro necessario poi, però, l’intervento umano resta fondamentale: il rapporto, l’empatia, il ragionamento, la conoscenza di bisogni e di desideri da soddisfare che due “umani” riescono ad instaurare non  sono sostituibili con una “macchina” e proprio per la tutela degli “umani” che il regolamento europeo deve essere approvato al più presto per evitare di dover rincorrere decisioni e comportamenti assunti da chi ha solo il potere del “più forte”.

Tags: Fabio Picciolini intelligenza artificiale Marzo 2023

© 2017 Ciuffa Editore - Via Rasella 139, 00187 - Roma. Direttore responsabile: Romina Ciuffa