La tua iscrizione ai blog Genesys è stata confermata!
Please add genesys@email.genesys.com to your safe sender list to ensure you receive the weekly blog notifications.
Iscriviti alla nostra newsletter gratuita e ricevi gli aggiornamenti sui blog nella tua casella postale
Non mostrare più questo messaggio.
Spesso parliamo della potenza pressoché illimitata dell’intelligenza artificiale (AI) se messa al servizio delle organizzazioni per affrontare problemi complessi, produrre nuove efficienze e raggiungere risultati di business molto specifici. All’interno di ogni settore, questa tecnologia si sta rapidamente affermando come la proverbiale formula magica per fare di più con meno, nonché in modo migliore rispetto al passato. Nel caso specifico della Customer Experience, parliamo anche di come l’intelligenza artificiale possa veramente aggiustare ciò che la tecnologia “rompe”, agevolando le connessioni umano-umano che si perdono in molte iniziative di digitalizzazione.
Tutto questo è straordinario, almeno finché si dimostra come tale. Chiunque sia coinvolto nello sviluppo e uso dell’AI dovrebbe infatti anche parlare dei suoi gravi effetti collaterali potenziali, che spesso non sono frutto di immaginazione. Esistono infatti già diversi esempi concreti, come quello di interi quartieri presi ingiustamente di mira dalle forze di polizia per la loro composizione demografica; oppure il caso di candidati che hanno difficoltà nel trovare lavoro a causa del proprio profilo che non corrisponde all’ideale aziendale; e, ancora, alcune minoranze che non riescono a raggiungere determinati traguardi, come l’essere accettati da un’università o accedere a un prestito sostenibile.
Tutto questo è generato da un problema intrinseco e radicato in tutti gli algoritmi dell’AI, ossia i modelli parziali. Come società, abbiamo ormai fatto i conti con il fatto che ogni modello contenga in sé un certo grado di parzialità, che si può facilmente spiegare. Se hai una maggioranza di clienti maschi tra i 50 e i 65 anni, i dati che alimentano i tuoi algoritmi sono già (sebbene non intenzionalmente) squilibrati verso una determinata fascia di età. Probabilmente il tuo algoritmo basa le sue decisioni sulle preferenze e il comportamento passato di questo modello, a meno che tu non abbia fatto qualcosa per prevenirlo. In poche parole, se non utilizzi i dati giusti o tutti i dati, introduci un certo grado di parzialità.
Visto che alcuni dei modelli di deep learning più performanti oggi sono delle scatole nere già pronte da usare, come fa un’organizzazione a reagire? Tutto parte dal concetto di responsabilità. Dalla prospettiva di un’azienda, sono tre i pilastri su cui fondare un’AI realmente responsabile:
1: Essere responsabile dei risultati: Qui la chiave è di assicurarti che l’AI produca i risultati attesi e assumertene il controllo. Non desideri certo trovarti esposto quando il risultato di un punteggio non si dimostra etico o giusto. Accusare l’algoritmo o i dati è una posizione indifendibile. Lo sviluppo dell’AI è un processo complesso e dinamico, ragion per cui hai bisogno di solide protezioni per restare al passo e mantenere il controllo dei modelli mentre continuano ad auto-apprendere ed evolversi.
2: Avere la capacità di spiegare l’algoritmo: Quando non comprendi come i tuoi modelli prendono decisioni, permetti di fatto all’algoritmo di comandare la realtà di molte (di solito ai margini) persone. Anche se può essere troppo complicato determinare come un modello matematico raggiunga una determinata conclusione, le aziende devono trovare un modo per spiegare il “perché” che sta dietro alle decisioni prese tramite AI. Questo si rivela particolarmente importante quando tali conclusioni impattano sul benessere di un individuo e potrebbero quindi avere implicazioni legali.
3: Dimostrare trasparenza sui dati che vengono usati: Per prima cosa dovremmo essere trasparenti sul fatto che una decisione online viene presa da un algoritmo oppure da un essere umano. Entrambi introdurranno un certo grado di parzialità, tuttavia quella generata dalla macchina sarà probabilmente più sistematica. La trasparenza è sempre la scelta giusta per mitigare la parzialità, in special modo per i modelli di difficile spiegazione. In questo caso, la chiave sta in primo luogo nel fornire agli utenti una vista sui dati che portano a una determinata decisione. Per compiere un passo ulteriore, considera di offrire agli utenti un canale di riscontro continuo che consenta di adattare con regolarità il modello in base alle necessità.
Nel volume Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, l’autrice Cathy O’Neil è stata una delle prime persone a puntare i riflettori su come l’automazione e l’AI possano distruggere le vite delle persone e perpetuare l’ineguaglianza. Il suo pensiero è che “I processi di Big Data codificano il passato. Non inventano il futuro. Per far questo è richiesta un’immaginazione morale, qualcosa che solo gli umani possono fornire. Dobbiamo integrare esplicitamente valori migliori nei nostri algoritmi, creando modelli di Big Data che seguano i nostri principi etici.”.
Si tratta di un compito che dovremmo tutti accettare seriamente. Non è facile e il paradosso sta nel fatto che stiamo iniziando a usare l’AI per spiegare l’AI stessa, in quanto non riusciamo a farlo da soli. Il punto è che non puoi semplicemente implementare la tua AI e lasciarla fare. Devi essere responsabile nel momento dell’implementazione ma anche durante il suo intero ciclo di vita.
Esiste l’esigenza costante di assicurarsi di essere veramente sintonizzati su ciò che sta accadendo, sul perché sta accadendo, sull’impatto che i suoi risultati hanno sulle persone, accertandosi di non introdurre inavvertitamente nuovi pregiudizi. Si tratta anche di un processo di miglioramento continuo e, come si suol dire, non sappiamo quello che non sappiamo… per il momento.
Segui la nostra serie di blog sull’Etica dell’AI e partecipa al dibattito.
Iscriviti alla nostra newsletter gratuita e ricevi gli aggiornamenti sui blog Genesys nella tua casella postale.