
La usiamo tutti, con la guida spesso affidata unicamente al buon senso. Eppure per le organizzazioni che operano nel sociale, come gli enti del terzo settore, la governance dell’intelligenza artificiale è un tema sensibile. Grandi organizzazioni internazionali, come Medici Senza Frontiere, si sono dotate di una policy per l’utilizzo con principi etici e regole ma molte altre sono ancora al lavoro. In Italia Fondazione Dynamo Camp ha appena rilasciato la sua policy rendendola pubblica sul sito di Dynamo Academy e proponendo un confronto sul tema a tutto il terzo settore.
Trasformazione digitale
«Questa policy si inserisce pienamente nel nostro percorso di trasformazione della nostra base dati e del nostro modo di lavorare attraverso vari strumenti digitale tra cui l’intelligenza artificiale» spiega Serena Porcari, ceo di Fondazione Dynamo Camp, che offre gratuitamente programmi di terapia ricreativa a minori affetti da patologie gravi o croniche.«Sperimentando abbiamo capito quali fossero i primi passi da fare, a partire dall’intellectual capital di Dynamo condiviso da tutti i gruppi di lavoro».
Con la crescita delle donazioni l’ente ha avviato una decisa trasformazione digitale investendo in modo massiccio sull’architettura digitale. Il database è stato reso responsive e segmentabile. Poi sono state formate le 70 persone di Dynamo. Gpt è stata integrata nei team di lavoro. Oltre al Gpt di Dynamo generico (con le informazioni sull’organizzazione e i suoi scopi) per ogni area di lavoro è stato creato un Gpt istruito e personalizzato in base a quello che deve restituire come output e i cui risultati vanno ad arricchire il Gpt generale di Dynamo. Sulla parte raccolta fondi il data management è integrato con l’Ai così da poter mandare a ogni donatore una comunicazione personalizzata in base al profilo e allo storico delle sue donazioni.
Quando usare l’Ai?
Nel documento «Policy per l’uso responsabile dell’intelligenza artificiale» sono elencati i principi ispiratori come centralità della persona, inclusione e accessibilità, tutela delle persone, autenticità e integrità della comunicazione, responsabilità e supervisione umana. Ma come tradurre concretamente questi principi? La domanda centrale da porsi per la fondazione non è: «possiamo usare l’Ai?» ma «ha senso usarla in questo contesto specifico?». Insomma usare l’Ai in modo critico e consapevole significa anche scegliere di non usarla, quando non è necessario.
Per valutare concretamente i bisogni, la carta invita a individuare il problema o il processo che si intende rispettivamente risolvere o migliorare, l’effettivo valore aggiunto che l’Ia può portare in termini di efficienza, precisione, accessibilità, trasparenza o risparmio di risorse, la sostenibilità dell’adozione in termini di costi, le competenze necessarie, la capacità di valutazione dei risultati, il tempo di apprendimento, aggiornamento e monitoraggio e l’esistenza di alternative non tecnologiche (o meno complesse) altrettanto o più efficaci.







%20(2)-U22508462548cco-1440x752@IlSole24Ore-Web.jpg?r=1170x507)
