L’ai per l’inclusività, la sicurezza e la prevenzione

Tutti parlano di nuove tecnologie e intelligenza artificiale, pochi ne conoscono realmente gli utilizzi e le potenzialità, ma anche i pericoli.

Molti gli enti che hanno organizzato un interessante convegno sul tema: ASP EWMD Torino insieme a FERPI e UniFERPI Piemonte e Val d’Aosta, Associazione Donne 4.0, con il patrocinio della Regione Piemonte, della Città di Torino, del Consiglio dell’Ordine degli Avvocati di Torino e dell’Associazione Stampa Subalpina ne hanno parlato con un parterre di esperti.

Le nuove tecnologie, e in particolare l’Intelligenza Artificiale, pongono una serie di questioni sia etiche sia giuridiche. Dal punto di vista etico, occorre valutare come e in che termini agiscano le nuove tecnologie e quali rischi portino con sé; dal punto di vista giuridico, invece, è necessaria una riflessione rispetto ai diritti fondamentali e alla tutela dei dati che riguardano, in particolare, le tecnologie di geolocalizzazione, riconoscimento biometrico, mappatura e tracciamento dei dati. Diventa indispensabile trovare un equilibrio tra le esigenze di riservatezza e tutela della privacy e le istanze di sicurezza, controllo e vigilanza.

La computerizzazione di oggi non è più ‘riconoscibile’ in oggetti standard, qualsiasi elettrodomestico o accessorio può essere smart e raccogliere dati. Gli stessi spazi pubblici e privati possono essere smart se dotati per esempio di telecamere.

Luci e ombre, quindi, un ambito che crea nuove forme di violenza (basti pensare all’hate-speech sui social) ma anche come modello per intercettare la violenza, prevenirla e contrastarla. Per esempio si può allenare l’intelligenza artificiale a riconoscere segni di violenza e comportamenti precoci pericolosi secondo i nostri input e grazie alla loro capacità di calcolo.

Diventa quindi importante addestrare in modo inclusivo l’AI, con una specifica formazione professionale o comprendente gli utenti stessi.

L’intelligenza artificiale deve anche calarsi nel concreto delle possibilità di utilizzo. Durante il convegno si è parlato di “Non posso parlare” un chatbot nato durante la pandemia quando le donne non potevano mettersi in contatto con i centri antiviolenza. Oltre alla facile accessibilità senza login, la particolarità è che la chat è anonima e si autoelimina una volta conclusa, per non lasciare tracce in caso di compagni controllanti.

Ci si chiede poi se l’AI possa riconoscere contesti di discriminazione o convinzioni stereotipate per esempio all’interno delle sentenze giuridiche. L’addestramento è possibile in tale verso, a fronte di un ‘comportamento’ errato degli assistenti vocali, che per anni hanno minimizzato la violenza verbale rivolta contro di essi, normalizzando quel tipo di linguaggio.

Nel mondo della giustizia l’intelligenza artificiale è da utilizzare con cautela e cognizione di causa, anche per questioni di proprietà intellettuale. È indispensabile sapere che si parla già di danni causati dall’intelligenza artificiale, con difficoltà nel trovare l’artefice del danno (AI o umano?). L’avvocato va quindi formato tenendo conto del digital divide, e per questo è stata creata una commissione interna all’Ordine degli avvocati. L’intelligenza artificiale deve essere al nostro servizio non a nostro danno: sono già due i casi (uno in USA l’altro a Firenze) di citazione di sentenze inesistenti inventate da ChatGPT, creando falsi basi su cui giudicare dei casi.

Anche in ambito medico l’AI può riconoscere, come assistente virtuale dell’operatore medico, profili possibili di violenza e di abuso indirizzando verso le giuste domande.

In ultimo ma non ultimo, l’intelligenza artificiale può sicuramente aiutare anche in ambito di inclusione e abbattimento delle barriere architettoniche per le persone disabili. Può suggerire in questi casi alle aziende gli adattamenti necessari e più strategici per rendere un luogo accessibile a tutti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *