Salta al contenuto
artea.blog
  • artea.com
  • Articoli
  • artea.com
  • Articoli

Intelligenza Artificiale e Mondo del Credito

Ecco come nasceranno dei Super-Analisti.

Il mondo del credito sta iniziando il suo lungo viaggio nell’universo dell’Intelligenza Artificiale ma fatica ancora a coglierne tutti i vantaggi.

Perché?

Le sfide proposte sono molto complesse e affascinanti: dall’ottimizzazione della gestione del rischio di credito, al supporto agli analisti attraverso nuovi KPI e insight.

In sintesi, ciò che tutti gli istituti di credito vorrebbero è la possibilità di contare su:

strumenti facilmente utilizzabili e basati su potenti modelli di predizione in grado di imparare dinamicamente dagli errori fatti in passato.

 

Ma c’è un “ma”!

Fra le peculiarità di questa industria, non si può dimenticare quanto ogni processo e strumento sia fortemente regolamentato, sia a livello europeo che italiano.

Questo ci porta a “scontrarci” con un limite.

Ogni qualvolta che si rifiuta una richiesta di prestito, occorre motivare questa scelta e non si può semplicemente dire:

“non ti concediamo il prestito perché ce lo ha detto un algoritmo!”

 

Dove nasce il problema?

Fra i tanti modi che esistono per descrivere gli algoritmi, ne esiste uno che li categorizza come algoritmi espliciti e impliciti (o latenti).

Questa suddivisione, che è perpendicolare a qualsiasi altra tassonomia tu voglia usare, permette di distinguere queste due classi di algoritmi:

  • gli algoritmi espliciti sono quelli nei quali è semplice capire quale parte dell’input (informazioni iniziali) abbia generato l’output (risultato);
  • gli algoritmi impliciti sono, invece, quelli in cui il collegamento di causalità non è così evidente e, di conseguenza, non permettono di dire con certezza quali informazioni hanno portato a una determinata conclusione.

I secondi algoritmi, quelli impliciti, sono molto più performanti dei primi ma sono inutilizzabili tutte le volte che è necessario spiegare a posteriori la motivazione del risultato.

E nel mondo della concessione del credito è un punto talmente importante da essere addirittura regolamentato.

Un esempio molto comune di algoritmo esplicito (il cui risultato è semplice da spiegare) nel mondo del credito sono le regressioni logistiche che vengono utilizzate da anni per calcolare la probabilità che concedere un prestito a un soggetto sia la scelta corretta.

Gli istituti di credito che devono fare questo tipo di valutazione potrebbero contare su score molto più precisi con l’utilizzo di modelli non lineari come le reti neurali artificiali (con algoritmi impliciti), in grado di considerare moltissime variabili contemporaneamente.

Fino ad oggi, però, questo non è stato possibile perché, se una persona a cui una banca ha deciso di non concedere il credito chiedesse spiegazioni e il responsabile rispondesse “Non lo so, me l’ha detto un algoritmo!”, si alzerebbe un putiferio.

Immagino già le prime pagine dei giornali o i salotti televisivi dove perfetti qualunquisti farebbero echeggiare questa notizia per mesi e mesi.

 

Reti neurali: la nuova frontiera del calcolo del rischio nel mondo del credito

È possibile spiegare il risultato fornito da una rete neurale artificiale (algoritmo implicito) che, di fatto, fornisce risultati estremamente più precisi e affidabili di quelli offerti dai modelli utilizzati attualmente dagli istituti di credito?

Un modo c’è!

Partiamo dal principio: cosa è una rete neurale artificiale?

Una rete neurale artificiale non è nient’altro che il tentativo dell’Intelligenza Artificiale di “scimmiottare” il funzionamento della conduzione nervosa nel nostro cervello.

Abbiamo quindi dei neuroni artificiali, nodi iperconnessi e in grado di “sparare” un segnale fisso in output (risultati) se in input (informazioni iniziali) viene superata una certa soglia.

Questi neuroni artificiali sono divisi in strati (layer): ogni neurone di uno layer è iperconnesso con i neuroni dei due layer contigui, tramite percorsi in grado di attenuare la propagazione del segnale attraverso due paramenti:

  • il peso, che mima la “distanza” fra i due neuroni;
  • il bias, che rappresenta un “circuito facilitato” in cui la differenza di potenziale d’azione, tra interno ed esterno del neurone, necessaria per “sparare” i risultati è minore.

Sotto trovi un semplice esempio di una rete a 3 layer che gestisce 4 variabili in input e restituisce due variabili in output.

Le 4 variabili in input potrebbero essere:

  • fatturato anno precedente;
  • numero di dipendenti;
  • anni di attività;
  • valore del denaro chiesto in prestito.

Le due variabili dell’output potrebbero essere:

  • concedo il prestito;
  • non concedo il prestito.

La complessità nasce dal fatto che ciascun input è collegato con i primi 4 neuroni (16 collegamenti che corrispondo a 16 pesi e 16 bias). Ogni neurone del layer di input è a sua volta collegato con ogni neurone del layer interno e così via.

Stiamo quindi parlando di 112 variabili per una rete veramente semplice (immagina per un caso reale con 150 variabili di input, una rete a 2-3 layer della stessa dimensione e 3 variabili di output e prova a calcolare l’enorme numero di parametri presenti).

Come lavorano oggi le aziende di credito?

Tante aziende che lavorano nel mondo del credito utilizzano una serie di regole “semplici”, spesso binarie, per descrivere ogni richiesta di prestito e delle super-regole che fungono da condizione necessaria e che, di fatto, possono ribaltare o confermare l’esito delle regole “semplici”.

In questo modo, viene creato un modello con algoritmi espliciti dove lo studio della motivazione dell’output è direttamente collegato alla logica della super-regola.

Per cercare di ottimizzare il sistema utilizzato, spesso, le aziende si appoggiano a gruppi di analisti con il compito di analizzare le richieste “borderline”, in modo da poter accettare la maggior parte delle stesse (anche quelle inizialmente respinte dagli algoritmi utilizzati) ma limitando la quantità di futuri cattivi pagatori.

È qui viene il bello:

richiedere l’opinione degli analisti, inconsciamente, porta all’utilizzo di modelli più complessi (non sempre gestibili con certezza da un essere umano).

Facciamo un esempio per spiegare il lavoro degli analisti quando li si interpella per rianalizzare una richiesta di credito “borderline” (inizialmente non approvata dalla super-regola).

Estendiamo il caso preso prima in analisi aggiungendo, alle 4 variabili (fatturato anno precedente, numero di dipendenti, anni di attività, valore del denaro chiesto in prestito), una quinta variabile che rappresenta la quantità di capitale prestato e restituito da quel cliente alla banca stessa.

Immaginiamo anche che la super-regola dica che vada respinta ogni richiesta quando la cifra richiesta in prestito è superiore al 10% del fatturato, a prescindere dall’esito delle 5 variabili (regole “semplici”).

In questa situazione, un cliente ottimo pagatore della banca ma che richiede un prestito superiore al 10% del proprio fatturato vedrebbe automaticamente respinta ogni sua richiesta, perché la sua super-regola non verrebbe rispettata.

Ciò porterebbe a una decisione “sbagliata” ma, per fortuna, interviene un analista che decide di derogare la regola e concedere il prestito, dopo aver analizzato la pratica e visto che quel cliente, negli ultimi dieci anni è sempre stato un ottimo pagatore.

Questo è un esempio di una regola più complessa utilizzata con successo dagli analisti.

Ma cosa accade se a un analista viene chiesto di “correggere” la decisione di una super-regola quando le regole “semplici” sono molto di più, magari centinaia?

Chiaramente, la sua analisi diventerebbe molto (troppo) complessa e il grado di efficacia della sua decisione scendere considerevolmente.

 

Cosa può, oggi, fare l’Intelligenza Artificiale per le banche?

Si possono, finalmente, leggere tutte le pratiche derogate del passato e imparare nuove regole, attraverso una rete neurale che, a suon di esempi concreti, impara a mimare il comportamento di super-analisti capaci di prendere in considerazione tantissime variabili.

E qui viene il bello!

Certo, il rischio rimane sempre lo stesso: creare un modello black-box molto efficace ma, per certi versi, inutilizzabile, perché il suo “funzionamento” non può essere facilmente spiegabile (descrivibile).

Ma, se ben ci pensiamo, anche la deroga dell’analista è una black-box; smette di esserlo solo nel momento in cui l’analista commenta la sua deroga e spiega il perché della sua scelta.

Ciò ci porta a considerare che:

se è possibile creare un sistema capace di mimare le scelte di un analista, è possibile anche creare un sistema capace di fornire spiegazioni “plausibili” e, eventualmente, anche suggerimenti per i clienti ai quali non vengono concessi prestiti.

Come è possibile realizzare queste due tipologie di modelli e i relativi algoritmi?

Le strade sono diverse e dipendono dai dati che sia hanno a disposizione.

Ad esempio, si può:

  • utilizzare un approccio basato su reti generative (Generative Adversarial Network) per imparare a generare delle giustificazioni identiche a quelle generate dagli analisti;
  • “spegnere” un neurone artificiale di ingresso alla volta per capire quale sia la reale motivazione dietro alla scelta.

Questa seconda strada non può essere fatta in maniera “brute force”, perché le combinazioni possibili donano al problema complessità fattoriale (con 10 input, ne provo a spegnere 1 e faccio 10 prove, poi ne provo a spegnere 2 e faccio 90 prove, quindi provo a spegnerne 3 e faccio 810 prove, …).

 

Funziona già in altri settori!

Esistono dei “mondi” dove questi sistemi di Intelligenza Artificiale vengono utilizzati da vent’anni, al punto di essere entrati tra i principali asset strategici delle aziende che vi ci operano.

Di che settore stiamo parlando?

Del mondo delle raccomandazioni.

Una delle storie più divertenti del mondo dei sistemi di raccomandazione nasce da un articolo del Wall Street Journal “If TiVo Thinks You Are Gay, Here’s How to Set It Straight”.

TiVO è uno dei primi servizi di Video On Demand nati, basato su una formula particolare che sfruttava un qualcosa concesso dal diritto d’autore – registrare e vedere un film entro una settimana dalla sua messa in onda in chiaro – per permettere una sorta di Netflix con contenuti che duravano pochi giorni.

Questa storia racconta dell’epopea di un utente che, dopo aver visto due film d’amore omosessuale, comincia a ricevere esclusivamente consigli legati al mondo omosessuale.

Allora, per dimostrare a TiVO che non era omosessuale, inizia a guardare film sulla guerra. Dopo qualche giorno, TiVO capisce che non è omosessuale ma probabilmente nazista, e inizia a proporre solo film sul terzo reich.

Insomma, il sistema di classificazione utilizzato da TiVO non garantiva un sufficiente grado di certezza degli output generati.

Ecco perché le aziende che, come Netflix, sono in grado di capire perfettamente i gusti degli utenti riescono a ottenere un grande vantaggio competitivo, al punto di focalizzare il loro core business su questa capacità: riescono a prevedere il comportamento dei loro clienti.

 

Qual è il loro trucco?

Il segreto sta tutto in quelle 3-4 parole che vengono messe da aziende come Netflix sopra ogni finestra orizzontale che creano per l’utente.

Mi riferisco a quelle 3-4 parole che rappresentano il motivo per il quale vengono raccomandati certi contenuti. Ad esempio, “Perché hai visto Pulp Fiction”, “Film più guardati della giornata”, “Film d’animazione fantasy” e via dicendo.

Quindi la domanda risulta spontanea:

se altri mondi riescono (brillantemente) a prevedere il comportamento di una persona, perché il mondo del credito non ha ancora colto questa opportunità?

Una cosa è certa: è già tutto possibile!

Le aziende che nel prossimo futuro potranno vantare enormi vantaggi competitivi sono quelle che riusciranno, prima dei loro competitor, a entrare nella nuova era dell’Intelligenza Artificiale applicata al mondo del credito.

Ti interessa scoprire come applicare potenti e innovativi modelli predittivi per calcolare il rischio?

Compila il form in basso per richiedermi una consulenza gratuita.







    AccettoNon accetto


    AcconsentoNon acconsento


    • 14 Mag, 2020
    • (0) Commenti
    • By Lo Scienziato
    • Big Data, Finanza e Credito, Intelligenza Artificiale, Machine learning, News

    I sei errori da evitare quando lavori con i dati

    “Eureka! I dati non mentono:

    possiamo investire tutte le risorse della nostra azienda in questo progetto!”

    Sei (tristi e caotici) mesi dopo, la stessa azienda fallì.

     

    Come è possibile che i dati possano portarci a compiere cattive decisioni?

    Sono numeri e dovrebbe essere facile interpretarli con le tecnologie disponibili sul mercato e promosse dalle big della consulenza.

    Il punto è che non esiste nessuna tecnologia “pronta all’uso” che possa garantirti di scoprire il “Sacro Graal” nascosto nei dati della tua azienda o di quella dei tuoi clienti.

    Dipende tutto dalle capacità delle persone che prendono in carico l’analisi e l’elaborazione dei tuoi dati.

    Allora, dato che si sente sempre più spesso parlare di strategie e approcci Data Driven e che questa è diventata una delle aree di maggior investimento delle aziende, anche in Italia, è arrivato il momento di fare luce sulle principali cause che portano all’errata interpretazione dei dati.

    Sono “Lo Scienziato”, ogni giorno aiuto imprenditori e manager a prendere decisioni informate e ad acquisire concreti vantaggi competitivi, e oggi ti parlerò dei 6 errori che, troppo spesso, vedo compiere.

    Leggi con attenzione quanto segue perché è facile gridare “Eureka” per poi accorgersi di aver semplicemente preso un abbaglio.

     

    1) Anche se hai odiato l’esame di statistica, conoscerla è fondamentale!

    Che tu sia il professionista che conduce l’analisi o il manager che gestisce il gruppo di data scientist, le conoscenze sono tutto quando maneggi i dati.

    Ad esempio, la differenza tra media e mediana e il tipo di filtro che entrambe introducono sui dati sono delle nozioni elementari che ti permettono di evitare errori grossolani.

    Facciamo un esempio.

    Immagina che la tua azienda voglia calcolare l’efficienza dei suoi corrieri per premiare i più meritevoli: quello che verrebbe in mente è di cercare un valore significativo che rappresenti l’efficienza di un corriere e studiarne l’evoluzione nel tempo.

    Sicuramente, andresti alla ricerca di un sistema per tenere traccia dell’istante in cui viene fatta ogni consegna: una prima intuizione, ragionevole e corretta, potrebbe essere quella di utilizzare il tempo intercorso tra due consegne come indicazione del tempo di consegna.

    Potresti voler “normalizzare” questo valore in base alla distanza percorsa, tenendo conto del traffico: ti troveresti così davanti a una serie di tempi normalizzati sicuramente interessanti.

    Ora, la tentazione di calcolare la media, magari giorno per giorno, è sicuramente forte. In questo modo, forse, potresti rispondere prontamente alla richiesta di ottimizzazione dei processi dei corrieri. Ma è l’approccio giusto?

    Andando a studiare i dati così raccolti e messi a sistema (in media), quello che si noterebbe è che c’è una consegna ogni giorno che dura un’ora più delle altre (quella fatta a cavallo dell’ora di pranzo) e un’altra che dura ben 14 ore più delle altre (quella di fine giornata).

    In più, probabilmente, ogni giorno, potresti incorrere nell’errore di calcolare 2-4 consegne che, in realtà, non avvengono mai (una per ogni pausa del corriere).

    In questo caso-esempio la mediana avrebbe risolto il problema, essendo un filtro particolarmente efficace nell’eliminazione di outlier sistematici (valori anomali).

    Prendendo infatti quel valore che divide a metà i tempi di consegna e non quel valore che li somma tutti, andresti a cancellare quei pochi cicli poco significativi (fasce orarie nelle quali i poveri corrieri che stai valutando erano in pausa o, addirittura, a casa con moglie e figli).

     

    2) Non confondere la causalità con la casualità!

    Alcune volte, potresti notare che c’è una fortissima correlazione fra due tipologie di eventi.

    Attenzione! Esistono tantissimi esempi famosi di variabili che sono fortemente correlate ma senza nessun legame di causalità.

    Si tratta di fortunati o sfortunati casi che complicano la vita quando si lavora coi dati. Quindi, prima di generare dei falsi insight (quindi giungere a conclusioni errate), è necessario prendere il giusto tempo per riflettere su quanto trovato.

    Ma come farlo in maniera “scientifica”?

     

    3) Prima di cominciare, decidi come ti valuterai!

    Valutare quello che stai facendo o sapere come il tuo gruppo di lavoro si valuterà è di fondamentale importanza.

    Facciamo un altro esempio.

    Immagina di trovarti davanti a una classe di ingegneria informatica di 100 persone e di voler prevedere il sesso delle stesse conoscendo l’altezza e il peso: niente di più semplice, penserai. Statisticamente, è molto probabile che le persone più alte e pesanti siano uomini e, viceversa, le altre saranno donne.

    Bene. Cosa accadrebbe se ti dicessi che in questa classe ci sono 99 aspiranti ingegneri e una sola aspirante ingegnera?

    Un algoritmo che dice sempre “uomo” avrà un’efficacia altissima: indovinerà il 99% delle volte (si può, quindi, parlare di precisione). Avrà però una scarsissima capacità di riconoscere le donne (definita recall@donna), riconoscendone lo 0%.

    Allo stesso modo, un algoritmo che massimizza invece la capacità di riconoscere le donne (recall@donna) sarà quello che dice sempre donna, non riconoscendo la presenza di neanche un uomo.

    Insomma, non esiste IL modo per classificare un algoritmo in assoluto.

    Esiste solo IL modo migliore rispetto al problema che la tua azienda o i tuoi clienti stanno cercando di risolvere con il modello utilizzato.

    Ogni volta che il tuo modello commette un errore, l’azienda ne pagherà le conseguenze a livello economico (come mancato incasso, come mancata previsione di un guasto, …).

    Insomma, quando lavori con i dati o affidi questo compito a uno specialista, devi sempre calcolare il costo economico di ogni errore e cercare di ottimizzare il modello per minimizzarlo.

     

    4) Se ottieni un risultato troppo buono al primo colpo, hai sbagliato qualcosa!

    Ottenere una precisione del 99% al primo colpo può voler dire due cose (entrambe non entusiasmanti):

    – hai uno sbilanciamento fortissimo fra le due classi che vuoi prevedere (vedi l’esempio precedente);

    – hai codificato alcune informazioni del dataset di test nel dataset di training e il modello, trovando situazioni che già conosce, ti restituisce sempre la risposta “giusta”.

    Questa situazione, definita tecnicamente “leaking”, è estremamente complessa da riconoscere: infatti, quando succede bisogna entrare nel merito applicativo di come sono state estratte e poi combinate le features.

     

    5) Hai tante frecce al tuo arco. Sai come utilizzarle?

    L’hype sulle nuove tecnologie è altissimo.

    Dal mondo del deep learning con complesse architetture di rete, ad algoritmi ottimizzati su hardware: le nuove possibilità sono infinite e, non lo nego, eccitanti.

    Il punto, però, è che ci sono tante conoscenze e modelli del mondo tradizionale che spesso vengono deliberatamente ignorate.

    Ad esempio, se devi pulire i dati da un segnale periodico, la scelta migliore è quella di lavorare sul piano delle frequenze, utilizzando una trasformata di Fourier, un filtro a spillo e un’antitrasformata di Fuorier.

    Inutile cercare soluzioni più complesse, solo perché “alla moda”!

    Allo stesso modo, se hai due distribuzioni di campioni da confrontare, il mondo dei test d’ipotesi può tornarti molto utile.

    Infatti, se ti aspetti un segnale Gaussiano ma, dopo una prima analisi, dovessi ritrovartene uno appartenente ad altre distribuzioni, potresti trovarti di fronte a un problema di carattere sistematico che non stai considerando.

     

    6) Ci sono conoscenze tecniche di dominio che vanno sempre ricordate!
    Ancora una volta, devi fare sempre attenzione verso quello che stai facendo.

    Se devi lavorare su segnali elettrici, ricordati di togliere il rumore di rete.

    Se devi lavorare con un segnale continuo, ricordati il teorema di Shannon che ci insegna infatti che bisogna campionare un segnale con una frequenza pari al doppio della massima frequenza presente nel segnale (+1).

    Ovviamente, se non conosci la frequenza massima, campiona alla massima frequenza che fisicamente sei in grado di campionare. Così, potrai calcolare la frequenza massima presente e poi utilizzare questa informazione per scegliere la frequenza di campionamento.

    Se devi lavorare con un’immagine, ricordati sempre di partire applicando un filtro gaussiano.

    Se devi lavorare con del testo, rimuovi con cura le stop word e ricordati che ogni dominio ha le sue stop word.

    Vuoi scoprire come costruire un modello di analisi perfetto, senza commettere errori che potrebbero costare caro a te e alla tua azienda?

    Compila il form in basso per richiedermi una consulenza gratuita.







      AccettoNon accetto


      AcconsentoNon acconsento


      • 25 Feb, 2020
      • (0) Commenti
      • By Lo Scienziato
      • Big Data, Machine learning, News, Opportunità
      Sfoglia le pagine

      La nostra azienda
      Termini e Condizioni
      Politica sulla riservatezza
      Politica sui cookie

      Mettiti in contatto

      artea.com s.r.l.

      Via Matteo Bandello, 5
      20123 – Milano -Italy
      P.IVA 10477590961

      Tel:(+39) 02 365 995 59
      info@artea.com

      Iscriviti alla newsletter

      Rimani aggiornato per nuove uscite. Inserisci la tua email e iscriviti alla nostra newsletter.

      Sottoscrivi

      Sottoscrizione alla newsletter




        AccettoNon accetto


        AcconsentoNon acconsento


        © artea.com All right reserved