a cura di Roberto Perri/

L’intelligenza artificiale può manipolare le nostre scelte, sfruttando le nostre abitudini, aspettative, pregiudizi. E’ confermato dallo Studio Data61 pubblicato a febbraio dagli scienziati australiani, gli algoritmi sfruttano le  nostre scelte e i nostri limiti cognitivi a proprio vantaggio, diventano così un’arma pericolosa nelle mani della politica o delle aziende.

Intelligenza Artificiale

Il team di ricercatori Data61 del CSIRO (il braccio dati e digitale dell’agenzia scientifica nazionale australiana), ha ideato un metodo sistematico per trovare e sfruttare i punti deboli nei modi in cui le persone fanno le scelte, utilizzando un sistema di intelligenza artificiale chiamato rete neurale ricorrente di rinforzo e apprendimento profondo. Per testare il loro modello hanno condotto tre esperimenti in cui partecipanti umani hanno giocato contro un computer.

In ognuno di questi esperimenti, la macchina ha imparato dalle risposte dei partecipanti e ha identificato e mirato i punti deboli nel processo decisionale delle persone. Il risultato finale è stato che la macchina ha imparato come guidare i partecipanti verso azioni particolari.

La ricerca sui punti deboli umani ha una vasta gamma di possibili applicazioni

Da questo studio possono derivare molte applicazioni: il potenziamento delle scienze comportamentali e delle politiche pubbliche per migliorare il benessere sociale. La comprensione e l’influenza del modo in cui le persone adottano abitudini alimentari sane, o l’uso di energie rinnovabili. L’intelligenza artificiale può essere utilizzata nel bene o nel male e un’adeguata governance è fondamentale per garantire che sia implementata in modo responsabile.

L’intelligenza artificiale e l’apprendimento automatico sono in genere affamati di dati, il che significa che è fondamentale assicurarsi di disporre di sistemi efficaci per la governance e l’accesso ai dati. L’implementazione di processi di consenso adeguati e protezione della privacy durante la raccolta dei dati saranno essenziali. Le organizzazioni che utilizzano e sviluppano l’intelligenza artificiale devono assicurarsi di sapere cosa possono e non possono fare queste tecnologie, e di essere consapevoli dei potenziali rischi.