di Fabrizio Abbate (Presidente salotto dell’IA dell’ENIA, ente nazionale intelligenza artificiale)
Il salotto dell’intelligenza artificiale creato dall’ENIA sta affrontando i rapporti tra ARTE, CULTURA e IA, e quindi invita creatori, artisti, intellettuali a partecipare a questo approfondimento: https://www.linkedin.com/posts/ente-nazionale-per-l-intelligenza-artificiale-e-n-i-a_eniano-ai-salotto-activity-7255862009580191744–5W-?utm_source=share&utm_medium=member_ios.
Ma per farlo è forse utile fissare alcuni paletti, giova chiarire infatti in via preliminare che molti usano citare l’I.A. ma questa definizione racchiude un ventaglio di fattispecie diverse che rende problematico poi capire i commenti , le proposte ,le intuizioni o osservazioni critiche a quale profilo IA si riferiscono esattamente.
In questo modo anche le proposte di regole (gia in sé difficili da applicare), e di principi ertici, ancor più importanti ma ardui da concretizzare, vendono resi dubbi.
Da un lato vi sono le tecnologie super intelligenti (IA analitica) che sono in pratica lo sviluppo particolarmente potente di software, certamente un utile supporto in molti campi, ma che può avere effetti negativi proprio per la potenza pervasiva che travolge vecchi schemi.
Ma è vera intelligenza artificiale?
L’interrogativo su questa definizione è legittimo e importante perche da un altro lato assistiamo allo sviluppo dell‘I.A. (così detta generativa) che si distingue per la capacità di auto apprendere. Secondo certi esperti tale potere di auto apprendimento non si capisce sempre come avvenga e dunque il prodotto di tali sistemi puo (in ipotesi) sfuggire al controllo iniziale (in tutto o in parte) e non è più un semplice strumento, ma pone problemi più complessi sia pratici che teorici, sia giuridici che filosofici ed infine (cosa ancor piu importante) etici. Abbiamo provato con un giallo fantasy paradossale a far riflettere su queste possibilita future ma non tanto (Nuovo Giornale Nazionale – EXTRAFALLACES, UN GIALLO IMPERITURO).
Perché sono così differenti queste due fattispecie?
Perché nel 1° caso sono uno strumento super potente in mano a chi detiene il controllo (e già vi sono delle sottocasistiche specifiche da analizzare).
Il controllo può essere infatti di chi ha creato la tecnologia, ma anche di chi l’ha successivamente sviluppata e infine vi potrebbe essere un controllo (occulto) non visibile.
Il controllo occulto potrebbe essere a sua volta dovuto ad hackeraggio (non immediatamente riscontrabile) ma anche a qualche segreto sia industriale che militare (intelligence etc..).
Ma poi vi possono essere errori di programmazione e impostazione e le cosiddette allucinazioni.
Ora già queste distinzioni fanno capire che il problema di dettare regole giuridiche e regole etiche all’I.A. intesa come tecnologia super intelligente è complesso e non basta invocarle per ottenere il risultato.
Perché regole inappropriate e inefficaci potrebbero addirittura essere controproducenti.
Creare falsa sicurezza non riuscire a regolamentare efficacemente.
E’ per questo che nel salotto dell’I.A. studieremo attentamente questo profilo. va detto che applicare questi principi a degli umani (cioè a chi ha il controllo) è complesso ma possibile, anche se nel caso di tecnologie superintelligenti bisogna tener conto del fatto che alcune sono (o possono essere) così potenti da rendere difficile imporre, in pratica, non solo in astratto, regole e controlli per divario economico o per divario tecnologico tra soggetti e tra detentori del controllo ed autorità che dovrebbero (in teoria controllare).
In modo analogo a delle armi nucleari vi possono essere applicazioni così potenti che chi le controlla non accetti regole, o le accetti solo a livello formale (buonismo, politcal correct) comunque in tutte queste casistiche sia pur ardue e complesse, rimaniamo in un campo noto e cioè la regolazione (etica o giuridica) dell’azione umana.
Regolazioni che ha una storia plurisecolare e che i giuristi sanno bene quali problemi abbia posto per la sua attuazione specie quando i buoni principi sono stati diversamente interpretati dalle diverse società e civilizzazioni umane (con imperfezioni notevoli, ad esempio fatta la legge trovato l’inganno) quando poi nella casistica descritta tale applicazione di regole sarebbe resa ben più difficile dalla potenza informatica ed economica esorbitante.
Il secondo profilo dell’I.A. ( generativa)e cioè quello in cui AUTO-APPRENDE merita un’attenzione specialissima perché l’applicazione di regole non è così semplice come certi tecnici ritengono, anzi pone sfide EPOCALI al pensiero giuridico ed etico che vanno chiarite con urgenza e che l’uso di un’unica dizione I.A. nasconde e confonde.(fino a far sospettare che la confusione sia voluta e la citazione dell’IA a sproposito si favorita per motivi precisi, (non creare allarme, confondendo i problemi).
Infatti, la prima domanda da farsi sarebbe a chi si applicano le regole giuridiche se l’ I.A. apprende da sola?
Se apprende da sola in qualche modo può scegliere (vedremo come) nei casi concreti e quindi produrre delle variabili che non sono interamente previste da chi ha creato quel sistema.
La variabilità delle scelte può essere minore o maggiore, ma potenzialmente già indica un problema di AUTONOMIA e per semplificare consideriamo per ora un’autonomia limitata quale per esempio la vettura a guida autonoma (in cui non sono in discussione i principi filosofici) in questa fattispecie domandiamoci in caso d’incidente a chi attribuire la responsabilità sia civile che penale.
Non bisogna attendere chissà quale futuro imperscrutabile per confrontarsi con questi temi perché già oggi con questo esempio dovremo valutare la ripartizione di responsabilità tra produttore della vettura, guidatore (umano) evento fortuito, errore o guasto e IA.
Ma va considerata anche la possibilità di Hackeraggio.
Il semplice elenco di queste ipotesi, fa comprendere che nel caso di scelte concrete della vettura a guida autonoma che abbia creato un danno occorre riflettere come valutarlo e a chi attribuirlo e può trattarsi sia di danno civile che da fattispecie penale.
Dunque si pongono problemi di etica e di diritto, ma a monte anche problemi di regole che se non appropriate o (attuabili) vanno analizzate come possibili causa o concausa dell’incidente provocato da vettura a guida autonoma.
Abbiamo volutamente limitato ad un esempio particolare per sottolineare l’urgenza di affrontare la questione.
Quanto a prospettive un po’ più lontane (ma di quanto, visto la velocità di evoluzione dei sistemi di I.A.?) il semplice esempio esaminato fa capire quali problemi si pongano anche a livello filosofico ma con enormi risvolti pratici.
Nel giallo fantasy Extra Fallaces abbiamo potuto tramite il metodo del paradosso, e l’uso della fantasia lanciare dei segnali e delle ipotesi perché occorre che gli intellettuali, gli uomini di cultura e l’opinione pubblica apra gli occhi e cominci a riflettere seriamente sulle prospettive dell’Intelligenza Artificiale autoapprendente https://youtu.be/tNl728UFl0c?si=2unOLGwVOOrTO0E6.
E qui si apre un altro tema ancora piu arduo che riguarda l’IA nel campo dell’arte, della letteratura, della creativita che apre spazi di riflessione enormi tema della ricerca e dell’azione del salotto letterario dell’ENIA su cui vi terremo aggiornati con un invito ad unirvi a questa riflessione e ricerca, che non riguarda solo i tecnici informatici o dell’ia. http://www.nuovogiornalenazionale.com/index.php/italia/cronaca/20165-lenia-conferisce-un-importante-incarico-al-nostro-fabrizio-abbate.html.
Il Neoevo è ormai iniziato. E il neoevo è l’era dell’intelligenza Artificiale e della lotta per le libertà e per i diritti.
——————————————————————————————————
More Stories
Mostra personale di Anna Hlebowicz: ‘Quando il cielo passa dal blu marino al nero’
Spoleto: Come sara il festival dei due mondi 2025? anticipazioni dai friends del festival
IFO: No alla malnutrizione del paziente oncologico. In vista importanti novità.