Salta al contenuto
artea.blog
  • artea.com
  • Articoli
  • artea.com
  • Articoli

Make or Buy: strategia e tattica per costruire il motore di ricerca aziendale

Dalla neonata startup alla multinazionale quotata, tutte le aziende a un certo punto si trovano davanti alla fatidica scelta del “make or buy”: che sia il nuovo sistema HR, un CRM, uno dei componenti che sostituiscono la proposizione aziendale, il manager si trova a decidere se il nuovo software è da costruire (“make”), o comprare (“buy”).

Mentre in alcuni casi questa decisione è piuttosto ovvia, nessuno si metterebbe mai a farsi un suo foglio di calcolo o un suo sistema operativo, in altri diventa il campo di battaglia fra chi farebbe sempre tutto da zero, e chi non viene mai sfiorato da questo pensiero.

Dietro a questa diatriba c’è effettivamente la difficoltà dietro a ogni scelta strategica: da una parte ci sono costi di licenza, costi di integrazione, il rischio dell’effetto vendor lock-in (i.e., sostituire un domani il venditore è talmente costoso che la scelta diventa insostituibile e il venditore ottiene una forte posizione di controllo), la complessità nel lavorare con tecnologie proprietarie, il maggior costo per le personalizzazioni.

Dall’altra parte invece seguire la filosifica del make costringe il manager a prendersi una responsabilità importante: cosa succede se il progetto fallisce? Cosa succede se il software costruito non fa quello che dovrebbe? Chi posso chiamare se qualcosa non va?

Quindi è meglio il make o il buy? Come ogni domanda mal posta, l’unica risposta possibile è: dipende.

Per aiutare a rispondere è però indispensabile approfondire meglio il concetto di “make”. Comunemente, il make lo si immagina come la volontà di re-inventare la ruota partendo da zero e andando a scrivere ogni componente e ogni funzione. In alcuni casi può essere vero, in altri è un’estremizzazione assolutamente poco ragionevole.

Per spiegarvi meglio questa complessità, permettetemi di prenderla alla lontana con un esempio.

Quasi tutte le aziende hanno un problema in comune, legato a una delle necessità primordiali dell’uomo, ossia come fare per gestire la conoscenza. Era un problema per i sumeri, che inventarono la scrittura cuneiforme per condividere la conoscenza sui confini dei campi dei diversi contadini. Era un problema durante il medioevo, dove i poemi medioevali avrebbero dovuto sopravvivere ai personaggi reali o di fantasia di cui narravano le gesta. Era un problema per il mondo pre dot-com revolution, dove un progetto nato in ambito militare era diventato il mezzo fisico per condividere la conoscenza. Era un problema parzialmente risolto subito dopo, dove quelli che sarebbero diventati le nuove super-potenze capirono che dietro alla complessità della strutturazione della conoscenza solo una ricerca testuale e poco vincolata avrebbe potuto governare questo nuovo mondo. E allora Yahoo, i fratelli Lycos, Google, tutti colossi nati negli anni 90, battezzarono la nascita di una nuova era.

Oggi nessuno si pone più il problema di chi abbia ragione su un dato argomento: ricordo ancora quando ero piccolo, quando a tavola una discussione diventava troppo animata, mia madre andava a prendere l’enciclopedia per sancire chi avesse ragione. Oggi basta “googlarlo” o cercarlo su wikipedia.

Quindi nel mondo comune l’idea di un singolo motore di ricerca che ci da accesso a tutta la conoscenza disponibile è talmente scontato che nessuno si immagina di vivere senza.

Ma perché non si può dare per scontato lo stesso servizio all’interno dei perimetri aziendali?

Immaginiamo un’azienda manifatturiera che vive della genialità e capacità dei suoi reparti di ingegneria e ricerca e sviluppo. Quanto sarebbe comodo per loro avere un motore di ricerca che contiene tutti i documenti progettuali, tutti i Cad o il codice sorgente, i capitolati, le presentazioni, i manuali, i ticket dei bug aperti, le distinte base, i dati sui fornitori, i dati sui clienti, le informazioni delle linee di produzione, la tracciabilità. E’ un desiderio utopico?

E’ in questo contesto specifico che la scelta make or buy diventa ancora più sottile: esistono sistemi “off-the-shelf” con connettori per collegarsi ai più comuni software di mercato e con tantissime features mirabolanti, dalla ricerca nelle immagini, alla similarità fra documenti, alla ricerca testuale. Ma poi “il sistema di PLM (product lifecycle management) ha una serie di customizzazioni”, “quelle altre informazioni le teniamo su un excel”, “per avere questo devi prendere le mail”, “ci sono poi dei documenti pdf da elaborare per estrarre il cartiglio”, “attenzione, il nome del prodotto è il nome del file”, … spesso seguendo pedissequamente l’idea del buy per “evitarsi grane” ci si porta solo a casa una complessità e inefficienza molto grande. Quindi vediamo sistemi che sono veramente avanzati e completi, come Cadenas, portarsi a casa tantissime funzionalità pronte per l’uso, ma faticare a portarsi a casa quell’ecosistema complesso di software, soluzioni, regole, abitudini sedimentate che spesse volte rappresentano le vere sfide nelle grosse realtà industriali.

“Allora no, voglio fare tutto io” potrebbe balenare nella testa del manager: “costruisco l’indice”, “costruisco il mio OCR“ (software per riconoscere il carattere nelle immagini), “costruisco il mio connettore a Teamcenter” (uno dei prodotti più diffusi nel mondo della PLM). Sarebbe molto bello, ma quanto costa? Quanto tempo ci vuole? Chi mi garantisce che sarà compliant con tematiche normative come quelle legate ai dati e alla GDPR? Quale strategia scegliere? La scelta migliore è probabilmente il make and buy, ottenibile con un approccio molto semplice:

  • Disegno l’architettura e la soluzione
  • Identifico i componenti logici utili per realizzare la soluzione
  • Componente per componente
    • Valuto quanto mi costi farlo
    • Valuto quanto mi costerà mantenerlo
    • Valuto quanta personalizzazione mi servirà

Tornando al nostro problema, la gestione della conoscenza, servirebbe:

  • Un componente per estrarre i testi da qualsiasi tipo di file (immagine, cad, pdf, excel, documento, …)
  • Una serie di connettori per estrarre i file dai vari sistemi legacy
  • Un contenitore che ospiti il processo e faccia si che l’estrazione sia incrementale (ogni giorno voglio solo i file nuovi, non tutti i file ogni volta)
  • Un engine che permetta di indicizzare questi testi
  • Un’applicazione web che permetta di interrogare questo engine con un’esperienza utente il più vicina a quella che è abituata ad avere (text-box di google ad esempio)

Connettori e logiche probabilmente trovandoci davanti a sistemi custom ha molto senso costruirseli, così come una semplice applicazione web. Engine di indicizzazione molto meno, esiste uno standard de facto open source di nome Lucene, disponibile vanilla o attraverso varie distribuzioni (come Azure Search).

L’estrazione dei testi, che sembra quasi la parte meno importante, diventa vitale: la sola idea di coprire qualsiasi casistica di formato scoreggerebbe anche il più accanito sostenitore del make. Che soluzioni esistono sul mercato per questa “nicchia”? In realtà non moltissime. Sicuramente Aspose è un sicuro candidato per questo ruolo (soluzione che alla fine abbiamo adottato in ogni nostro progetto/prodotto), per via sia della copertura notevolissima dei possibili formati, che per la possibilità di utilizzare qualsiasi tipologia di linguaggio di programmazione. Di fatto è l’unica soluzione che copre sia la parte puramente “office” che formati più complessi come i vari CAD. Anche se a prima vista potrebbe non sembrare un prodotto “economico”, andando a vedere la quantità effettiva di feature offerte, nel momento in cui c’è la possibilità di ri-utilizzarlo su più progetti e quindi ripartire il suo costo, la scelta diventa veramente semplice da fare. In questo momento ci sta permettendo, oltre all’estrazione del testo da qualsiasi formato file (e parliamo anche di cose assolutamente esoteriche come i QAF, formati mai sentito prima di incontrarlo in un progetto), di fare in maniera semplice e intuitiva le thumbnail di preview del documento (feature molto apprezzata dagli utenti che utilizzano il motore di ricerca tailor made sulle loro esigenze).

Quindi… scegliere tra make or buy non è mai una scelta banale e scontata, che viene resa più semplice trovando prodotti “primi della classe” (best of breed) come Aspose, in grado di accelerare progetti complessi e far si che sia possibile fare focus sulle parti applicative delegando una grossa complessità alle sue librerie.

Ti interessa scoprire come applicare potenti e innovativi modelli predittivi per calcolare il rischio?

Compila il form in basso per richiedermi una consulenza gratuita.







    AccettoNon accetto


    AcconsentoNon acconsento


    • 7 Lug, 2020
    • (0) Commenti
    • By Florindo Palladino
    • Big Data, Finanza e Credito, Intelligenza Artificiale, Machine learning, News, Opportunità

    Intelligenza Artificiale e Mondo del Credito

    Ecco come nasceranno dei Super-Analisti.

    Il mondo del credito sta iniziando il suo lungo viaggio nell’universo dell’Intelligenza Artificiale ma fatica ancora a coglierne tutti i vantaggi.

    Perché?

    Le sfide proposte sono molto complesse e affascinanti: dall’ottimizzazione della gestione del rischio di credito, al supporto agli analisti attraverso nuovi KPI e insight.

    In sintesi, ciò che tutti gli istituti di credito vorrebbero è la possibilità di contare su:

    strumenti facilmente utilizzabili e basati su potenti modelli di predizione in grado di imparare dinamicamente dagli errori fatti in passato.

     

    Ma c’è un “ma”!

    Fra le peculiarità di questa industria, non si può dimenticare quanto ogni processo e strumento sia fortemente regolamentato, sia a livello europeo che italiano.

    Questo ci porta a “scontrarci” con un limite.

    Ogni qualvolta che si rifiuta una richiesta di prestito, occorre motivare questa scelta e non si può semplicemente dire:

    “non ti concediamo il prestito perché ce lo ha detto un algoritmo!”

     

    Dove nasce il problema?

    Fra i tanti modi che esistono per descrivere gli algoritmi, ne esiste uno che li categorizza come algoritmi espliciti e impliciti (o latenti).

    Questa suddivisione, che è perpendicolare a qualsiasi altra tassonomia tu voglia usare, permette di distinguere queste due classi di algoritmi:

    • gli algoritmi espliciti sono quelli nei quali è semplice capire quale parte dell’input (informazioni iniziali) abbia generato l’output (risultato);
    • gli algoritmi impliciti sono, invece, quelli in cui il collegamento di causalità non è così evidente e, di conseguenza, non permettono di dire con certezza quali informazioni hanno portato a una determinata conclusione.

    I secondi algoritmi, quelli impliciti, sono molto più performanti dei primi ma sono inutilizzabili tutte le volte che è necessario spiegare a posteriori la motivazione del risultato.

    E nel mondo della concessione del credito è un punto talmente importante da essere addirittura regolamentato.

    Un esempio molto comune di algoritmo esplicito (il cui risultato è semplice da spiegare) nel mondo del credito sono le regressioni logistiche che vengono utilizzate da anni per calcolare la probabilità che concedere un prestito a un soggetto sia la scelta corretta.

    Gli istituti di credito che devono fare questo tipo di valutazione potrebbero contare su score molto più precisi con l’utilizzo di modelli non lineari come le reti neurali artificiali (con algoritmi impliciti), in grado di considerare moltissime variabili contemporaneamente.

    Fino ad oggi, però, questo non è stato possibile perché, se una persona a cui una banca ha deciso di non concedere il credito chiedesse spiegazioni e il responsabile rispondesse “Non lo so, me l’ha detto un algoritmo!”, si alzerebbe un putiferio.

    Immagino già le prime pagine dei giornali o i salotti televisivi dove perfetti qualunquisti farebbero echeggiare questa notizia per mesi e mesi.

     

    Reti neurali: la nuova frontiera del calcolo del rischio nel mondo del credito

    È possibile spiegare il risultato fornito da una rete neurale artificiale (algoritmo implicito) che, di fatto, fornisce risultati estremamente più precisi e affidabili di quelli offerti dai modelli utilizzati attualmente dagli istituti di credito?

    Un modo c’è!

    Partiamo dal principio: cosa è una rete neurale artificiale?

    Una rete neurale artificiale non è nient’altro che il tentativo dell’Intelligenza Artificiale di “scimmiottare” il funzionamento della conduzione nervosa nel nostro cervello.

    Abbiamo quindi dei neuroni artificiali, nodi iperconnessi e in grado di “sparare” un segnale fisso in output (risultati) se in input (informazioni iniziali) viene superata una certa soglia.

    Questi neuroni artificiali sono divisi in strati (layer): ogni neurone di uno layer è iperconnesso con i neuroni dei due layer contigui, tramite percorsi in grado di attenuare la propagazione del segnale attraverso due paramenti:

    • il peso, che mima la “distanza” fra i due neuroni;
    • il bias, che rappresenta un “circuito facilitato” in cui la differenza di potenziale d’azione, tra interno ed esterno del neurone, necessaria per “sparare” i risultati è minore.

    Sotto trovi un semplice esempio di una rete a 3 layer che gestisce 4 variabili in input e restituisce due variabili in output.

    Le 4 variabili in input potrebbero essere:

    • fatturato anno precedente;
    • numero di dipendenti;
    • anni di attività;
    • valore del denaro chiesto in prestito.

    Le due variabili dell’output potrebbero essere:

    • concedo il prestito;
    • non concedo il prestito.

    La complessità nasce dal fatto che ciascun input è collegato con i primi 4 neuroni (16 collegamenti che corrispondo a 16 pesi e 16 bias). Ogni neurone del layer di input è a sua volta collegato con ogni neurone del layer interno e così via.

    Stiamo quindi parlando di 112 variabili per una rete veramente semplice (immagina per un caso reale con 150 variabili di input, una rete a 2-3 layer della stessa dimensione e 3 variabili di output e prova a calcolare l’enorme numero di parametri presenti).

    Come lavorano oggi le aziende di credito?

    Tante aziende che lavorano nel mondo del credito utilizzano una serie di regole “semplici”, spesso binarie, per descrivere ogni richiesta di prestito e delle super-regole che fungono da condizione necessaria e che, di fatto, possono ribaltare o confermare l’esito delle regole “semplici”.

    In questo modo, viene creato un modello con algoritmi espliciti dove lo studio della motivazione dell’output è direttamente collegato alla logica della super-regola.

    Per cercare di ottimizzare il sistema utilizzato, spesso, le aziende si appoggiano a gruppi di analisti con il compito di analizzare le richieste “borderline”, in modo da poter accettare la maggior parte delle stesse (anche quelle inizialmente respinte dagli algoritmi utilizzati) ma limitando la quantità di futuri cattivi pagatori.

    È qui viene il bello:

    richiedere l’opinione degli analisti, inconsciamente, porta all’utilizzo di modelli più complessi (non sempre gestibili con certezza da un essere umano).

    Facciamo un esempio per spiegare il lavoro degli analisti quando li si interpella per rianalizzare una richiesta di credito “borderline” (inizialmente non approvata dalla super-regola).

    Estendiamo il caso preso prima in analisi aggiungendo, alle 4 variabili (fatturato anno precedente, numero di dipendenti, anni di attività, valore del denaro chiesto in prestito), una quinta variabile che rappresenta la quantità di capitale prestato e restituito da quel cliente alla banca stessa.

    Immaginiamo anche che la super-regola dica che vada respinta ogni richiesta quando la cifra richiesta in prestito è superiore al 10% del fatturato, a prescindere dall’esito delle 5 variabili (regole “semplici”).

    In questa situazione, un cliente ottimo pagatore della banca ma che richiede un prestito superiore al 10% del proprio fatturato vedrebbe automaticamente respinta ogni sua richiesta, perché la sua super-regola non verrebbe rispettata.

    Ciò porterebbe a una decisione “sbagliata” ma, per fortuna, interviene un analista che decide di derogare la regola e concedere il prestito, dopo aver analizzato la pratica e visto che quel cliente, negli ultimi dieci anni è sempre stato un ottimo pagatore.

    Questo è un esempio di una regola più complessa utilizzata con successo dagli analisti.

    Ma cosa accade se a un analista viene chiesto di “correggere” la decisione di una super-regola quando le regole “semplici” sono molto di più, magari centinaia?

    Chiaramente, la sua analisi diventerebbe molto (troppo) complessa e il grado di efficacia della sua decisione scendere considerevolmente.

     

    Cosa può, oggi, fare l’Intelligenza Artificiale per le banche?

    Si possono, finalmente, leggere tutte le pratiche derogate del passato e imparare nuove regole, attraverso una rete neurale che, a suon di esempi concreti, impara a mimare il comportamento di super-analisti capaci di prendere in considerazione tantissime variabili.

    E qui viene il bello!

    Certo, il rischio rimane sempre lo stesso: creare un modello black-box molto efficace ma, per certi versi, inutilizzabile, perché il suo “funzionamento” non può essere facilmente spiegabile (descrivibile).

    Ma, se ben ci pensiamo, anche la deroga dell’analista è una black-box; smette di esserlo solo nel momento in cui l’analista commenta la sua deroga e spiega il perché della sua scelta.

    Ciò ci porta a considerare che:

    se è possibile creare un sistema capace di mimare le scelte di un analista, è possibile anche creare un sistema capace di fornire spiegazioni “plausibili” e, eventualmente, anche suggerimenti per i clienti ai quali non vengono concessi prestiti.

    Come è possibile realizzare queste due tipologie di modelli e i relativi algoritmi?

    Le strade sono diverse e dipendono dai dati che sia hanno a disposizione.

    Ad esempio, si può:

    • utilizzare un approccio basato su reti generative (Generative Adversarial Network) per imparare a generare delle giustificazioni identiche a quelle generate dagli analisti;
    • “spegnere” un neurone artificiale di ingresso alla volta per capire quale sia la reale motivazione dietro alla scelta.

    Questa seconda strada non può essere fatta in maniera “brute force”, perché le combinazioni possibili donano al problema complessità fattoriale (con 10 input, ne provo a spegnere 1 e faccio 10 prove, poi ne provo a spegnere 2 e faccio 90 prove, quindi provo a spegnerne 3 e faccio 810 prove, …).

     

    Funziona già in altri settori!

    Esistono dei “mondi” dove questi sistemi di Intelligenza Artificiale vengono utilizzati da vent’anni, al punto di essere entrati tra i principali asset strategici delle aziende che vi ci operano.

    Di che settore stiamo parlando?

    Del mondo delle raccomandazioni.

    Una delle storie più divertenti del mondo dei sistemi di raccomandazione nasce da un articolo del Wall Street Journal “If TiVo Thinks You Are Gay, Here’s How to Set It Straight”.

    TiVO è uno dei primi servizi di Video On Demand nati, basato su una formula particolare che sfruttava un qualcosa concesso dal diritto d’autore – registrare e vedere un film entro una settimana dalla sua messa in onda in chiaro – per permettere una sorta di Netflix con contenuti che duravano pochi giorni.

    Questa storia racconta dell’epopea di un utente che, dopo aver visto due film d’amore omosessuale, comincia a ricevere esclusivamente consigli legati al mondo omosessuale.

    Allora, per dimostrare a TiVO che non era omosessuale, inizia a guardare film sulla guerra. Dopo qualche giorno, TiVO capisce che non è omosessuale ma probabilmente nazista, e inizia a proporre solo film sul terzo reich.

    Insomma, il sistema di classificazione utilizzato da TiVO non garantiva un sufficiente grado di certezza degli output generati.

    Ecco perché le aziende che, come Netflix, sono in grado di capire perfettamente i gusti degli utenti riescono a ottenere un grande vantaggio competitivo, al punto di focalizzare il loro core business su questa capacità: riescono a prevedere il comportamento dei loro clienti.

     

    Qual è il loro trucco?

    Il segreto sta tutto in quelle 3-4 parole che vengono messe da aziende come Netflix sopra ogni finestra orizzontale che creano per l’utente.

    Mi riferisco a quelle 3-4 parole che rappresentano il motivo per il quale vengono raccomandati certi contenuti. Ad esempio, “Perché hai visto Pulp Fiction”, “Film più guardati della giornata”, “Film d’animazione fantasy” e via dicendo.

    Quindi la domanda risulta spontanea:

    se altri mondi riescono (brillantemente) a prevedere il comportamento di una persona, perché il mondo del credito non ha ancora colto questa opportunità?

    Una cosa è certa: è già tutto possibile!

    Le aziende che nel prossimo futuro potranno vantare enormi vantaggi competitivi sono quelle che riusciranno, prima dei loro competitor, a entrare nella nuova era dell’Intelligenza Artificiale applicata al mondo del credito.

    Ti interessa scoprire come applicare potenti e innovativi modelli predittivi per calcolare il rischio?

    Compila il form in basso per richiedermi una consulenza gratuita.







      AccettoNon accetto


      AcconsentoNon acconsento


      • 14 Mag, 2020
      • (0) Commenti
      • By Lo Scienziato
      • Big Data, Finanza e Credito, Intelligenza Artificiale, Machine learning, News

      Machine learning per Logistics & Supply Chain

      Secondo l’International Monetary Fund, il valore della produzione annua globale del 2019, che si basa in larga parte sul commercio di prodotti che vengono trasportati, più o meno lontano, ammonta a 86.6 mila miliardi di dollari.

      Tra i settori di mercato che oggi registrano i maggiori tassi di crescita, quello Logistics & Supply Chain è arrivato a pesare, secondo PwC, ben 4.600 miliardi di dollari.

      Così, con l’aumento della complessità del mercato e delle operazioni, come delle opportunità, tutte le aziende operanti in questo settore si ritrovano a dover compiere importanti scelte ed investimenti per garantire la loro competitività nel mercato globale.

      In quest’ottica, sempre più aziende si affidano all’Intelligenza Artificiale (da qui in avanti AI) per prendere le più importanti decisioni strategiche.

      Dalla definizione del luogo migliore in cui costruire la warehouse, fino all’ottimizzazione dei processi di consegna finale, ogni aspetto gestionale può essere ottimizzato grazie a un uso smart della tecnologia.

      Se la tua azienda opera in questo settore è arrivato il momento di trovare risposta alle due sfide che, ormai da anni, incidono maggiormente sul successo della tua impresa.

       

      Le due sfide del settore Logistics & Supply Chain

      Nuovi trend di consumo e globalizzazione della concorrenza impongono alla tua azienda di confrontarsi con le due variabili che incidono maggiormente sulla tua competitività:

      1. Just in time!
        È necessario incanalare l’erogazione dei tuoi servizi in un processo produttivo e di approvvigionamento continuo volto a soddisfare la sempre mutevole domanda dei consumatori finali, sia B2B che B2C.La parola chiave è “ora”!

        Perché i tuoi clienti richiedono che ogni fase dell’intera supply chain sia estremamente puntale, agile, adattabile e precisa, secondo standard di qualità del servizio sempre più alti.

        Inoltre, l’applicazione del concetto del “Just in time” nel mondo della logistica porta all’abbattimento dei costi di struttura, riducendo gli sprechi e le scorte, e all’ottimizzazione dei processi di lavoro, grazie a percorsi di consegna capaci di bilanciare la miglior performance finanziaria alla rapidità di consegna.

      1. Gestisci i costi fissi
        I tuoi margini sono fortemente condizionati dalla tua capacità di gestire i costi fissi delle operazioni, in particolare, relative alla gestione del magazzino e del trasporto dei prodotti.

       

      Quando l’AI guida i processi del tuo magazzino

      L’Intelligenza Artificiale, in campo logistico, ti permette di migliorare la gestione di ogni processo che prende vita nella tua warehouse.

      Vediamo come ciò è possibile.

      La tua warehouse genera costantemente una grande mole di dati che vanno aggiornati e messi a sistema con tutto ciò che avviene all’esterno, in modo da avere sempre tutte le informazioni utili all’ottimizzazione delle tue operazioni.

      Corretto?

      Bene! Organizzandoli con metodo e caricandoli in un sistema di Machine Learning (in seguito ML), puoi trasformare i tuoi dati in un tesoro di inestimabile valore.

      In questo modo, puoi delegare alla tecnologia ML l’importante compito di estrarre ogni informazione utile e di indicarti la migliore via per prendere le decisioni che più incidono sul tuo business, fino al punto di predire gli scenari futuri.

      Il ML, infatti, è il ramo dell’AI che prevede l’“allenamento” di uno o più algoritmi al fine di renderli capaci di analizzare i tuoi dati e prevedere eventi e trend partendo da dati storici ed eventi passati. Ma c’è (molto) di più.

      L’AI che processa i tuoi dati può anche combinarli con ulteriori informazioni provenienti dall’esterno, quali, ad esempio, i periodi dell’anno, le condizioni atmosferiche di ogni singolo giorno, la situazione macroeconomica su base giornaliera, il costo delle materie prime in tempo reale fornito delle più autorevoli agenzie finanziarie, scelte politiche nazionali e internazionali e tanto altro ancora.

      Così, la possibilità di aggregare tutte le fonti di dati a tua disposizione ti permette di prendere le più importanti decisioni di business sulla base di informazioni certe.

       

      I tre vantaggi per la tua azienda con il ML

      Tutti i tuoi dati che vengono aggregati e comparati, grazie ad algoritmi studiati ad hoc, portano alla luce delle evidenze ad alto valore aggiunto che ti permettono di prendere decisioni adeguate e tempestive.

      La gestione del tuo magazzino può, così, fondarsi sul processo di miglioramento continuo tipico della filosofia lean, permettendoti di impiegare ogni risorsa con il massimo dell’efficienza e di ottenere tre preziosi vantaggi.

      1. Abbatti i costi fissi 

        Sfruttando il massimo potenziale dei tuoi dati, puoi identificare il turnover medio del tuo magazzino e prevedere i momenti di picco, nei quali la gestione della struttura e dei servizi richiede un maggior impiego di risorse.In questo modo, puoi abbattere i tuoi costi fissi.

        Ad esempio, puoi facilmente prevedere il numero di persone necessarie nei vari periodi dell’anno e, di conseguenza, “variabilizzare” il costo del lavoro attraverso la possibilità del lavoro interinale.

      1. Ottimizza picking e internal delivery 

        Un secondo beneficio offerto dall’AI è relativo alla possibilità di snellire ed efficientare le attività di picking e di internal delivery.Qualsiasi centro logistico, dal più piccolo al più grande e complesso, infatti, dispone di informazioni riguardanti il traffico degli operatori, il numero di ordini consegnati, il tempo medio di recupero e consegna.

        Tutti questi dati possono essere utilizzati per definire una più efficiente e sicura modalità di lavoro.

        Come?

        Ad esempio, mettendo in comunicazione, attraverso tecnologia IoT, i mezzi utilizzati degli operatori, le postazioni di picking e un sistema centrale governato da AI.
        In uno scenario di questo tipo, il sistema potrebbe dirigere dettagliatamente ogni operazione di picking, assegnando l’ordine di recupero del materiale all’operatore che si trova sul mezzo più vicino al punto di picking e che nel tragitto non incrocerà un altro mezzo o operatore.

      1. Consegna efficientemente i prodotti 

        Un’ulteriore interessante analisi sull’applicazione dell’AI al mondo della logistica, può essere condotta relativamente al processo di consegna dei prodotti.Ad esempio, quanto è complesso per un’azienda che offre un servizio di e-commerce B2C gestire consegne e addetti a questa attività?

        Tante aziende operanti nel settore hanno superato il problema esternalizzando il processo o lasciando in carico buona parte dell’onere della consegna agli operatori. Altre aziende invece stanno investendo ingenti risorse economiche per trovare il bandolo della matassa.

      Bene, una soluzione c’è.

      È possibile utilizzare i dati di Google Maps, ricchissimo di informazioni riguardanti il traffico, gli spostamenti che normalmente fanno le persone e la posizione delle loro abitazioni, la densità di popolazione in una certa area e molte altre informazioni.

      Non a caso Google sa che strada fai tutti i giorni per andare a lavoro e per portare i tuoi figli a scuola ed è per questo motivo che spesso ti propone nuovi itinerari.

      Ma cosa c’entra con l’efficientamento delle tue consegne?

      Puoi facilmente accedere ai dati di Google Maps utilizzando dei “connettori”, chiamati API. Questi ti permettono di utilizzare le informazioni provenienti da Google sui tuoi sistemi aziendali interni. In questo modo, ad esempio, puoi avere sotto controllo la situazione del traffico, la densità di popolazione sul territorio o la conformazione geografica di ogni segmento dell’area di consegna.

      Ciò significa che puoi selezionare i percorsi migliori e organizzare più efficientemente i flussi di lavoro e consegna.

      Vuoi scoprire come aumentare la competitività della tua azienda con sistemi di Machine Learning?

      Compila il form in basso per richiedermi una consulenza gratuita.







        AccettoNon accetto


        AcconsentoNon acconsento


        • 22 Apr, 2020
        • (0) Commenti
        • By Lorenzo Brambilla
        • Big Data, Intelligenza Artificiale, Logistics, Machine learning, News, Supply Chain

        Il futuro della sanità e dell’imprenditoria raccontato dal COVID-19 e dall’AI

        “Coronavirus, Alibaba: l’intelligenza artificiale esegue il test in 20 secondi”.

        È il titolo di un recente articolo pubblicato su la Repubblica che mi ha dato modo, ancora una volta, di riflettere su quanto importante sia l’intelligenza artificiale per aziende, governi e, senza dubbio, per ciascun individuo.

        Mi spiego.

        In artea.com, l’azienda per la quale ricopro il ruolo di CEO, ci occupiamo di intelligenza artificiale.

        Sviluppiamo soluzioni tecnologiche in grado di estrarre le informazioni utili dai dati, al fine di utilizzarle per insegnare a delle macchine a predire qualcosa che è interessante per il business dei nostri clienti.

        È esattamente quanto fatto da Alibaba per aiutare il proprio paese nella lotta contro l’emergenza sanitaria che sta, ormai, interessando i popoli di tutto il mondo.

        Il metodo di Alibaba per combattere il COVID-19

        La Damo Academy, istituto della multinazionale cinese, si apprende dal sopracitato articolo, ha sviluppato un algoritmo, ovvero un procedimento informatico capace di risolvere un problema sulla base dei dati disponibili, in grado di diagnosticare casi di COVID-19 in soli 20 secondi, distinguendoli da quelli di comuni polmoniti.

        Ma non è solo l’impressionante velocità di diagnosi a colpirmi: questo metodo ha un livello di accuratezza del 96%!

        Qual è il segreto dell’istituto di ricerca cinese che ha sviluppato questo metodo?

        È semplice. La disponibilità di una grande mole di dati e, ovviamente, la capacità di utilizzarli al meglio.

        “Il nuovo metodo, spiegano dall’istituto di ricerca cinese, sfrutta complessi sistemi di analisi basati sul machine learning e addestrati con i dati campione di oltre 5 mila casi confermati, secondo le linee guida delle ultime ricerche effettuate sull’epidemia che negli ultimi mesi si è rapidamente diffusa a livello globale.”

        Quali sono i vantaggi del metodo Alibaba?

        I medici che si trovano oggi in prima linea nella lotta contro la pandemia possono contare su una tecnologia capace di aggregare, in poche frazioni di secondo, tante informazioni che molto difficilmente un uomo potrebbe apprendere e valutare.

        È quindi possibile prendere delle precise scelte su ogni paziente in pochi secondi, aumentando il numero di visite giornaliere, rassicurando i pazienti non infetti, isolando quelli infetti e riducendo drasticamente la possibilità di contagio sulla popolazione sana.

        Il valore del risultato finale è talmente grande da non essere misurabile in termini economici e sociali.

        E il nostro Sistema Sanitario?

        In Cina, tutto questo è stato possibile grazie alla disponibilità di una grande massa di dati (l’articolo parla di 5000 test di soggetti positivi al COVID-19 per “allenare” l’algoritmo a identificare il virus su nuovi pazienti).

        Immagina quali incredibili risultati potremmo raggiungere se disponessimo di un’unica banca dati organizzata, contenente tutti i test fatti sui pazienti.

        Per prima cosa, probabilmente potremmo perfezionare il già strabiliante risultato del 96% di accuratezza raggiunto da Alibaba nella diagnosi del COVID-19.

        Ma i campi applicativi resi possibili da una banca dati organizzata sono pressoché infiniti.

        Proviamo, allora, a fare un ragionamento più ampio.

        Riflettiamo sul numero dei dati sanitari che un individuo genera dal momento della sua nascita. Sin dal nostro primo giorno di vita, incontriamo medici decine di volte.

        Ora, ipotizziamo che ognuno di noi abbia una sua area personale sulla quale viene registrata qualsiasi informazione sulla sua storia clinica e sulla sua nutrizione e sulla quale trasmette i suoi dati fisiologici giornalieri attraverso wearable (dispositivi indossabili come gli smartwatch).

        Mi rendo conto che ciò possa sembrare uno scenario da Grande Fratello, oltre che difficile da realizzare.

        Ma immagina che ognuno di noi possegga i propri dati sanitari e che possa scegliere di condividerli con il Sistema Sanitario Nazionale per condurre studi e ricerche, quali grandi vantaggi potrebbe trarre l’intera società da uno strumento del genere?

        Potremmo fare delle analisi su larga scala. I dati trasmessi al mondo della ricerca avrebbero un livello di dettaglio e una quantità mai vista prima.

        Si parla sempre per ipotesi, ma gli insights che si otterrebbero dalle analisi di così tante persone, probabilmente, ci permetterebbero di approcciare diversamente una serie di patologie che affliggono oggi l’umanità e il benessere di ognuno di noi.

        Il tema della prevenzione, analizzando i vari cluster di pazienti, potrebbe diventare una realtà ben più grande di quanto non lo sia oggi. E, forse, anche l’insorgere delle epidemie, come quella del COVID-19, potrebbe essere gestita diversamente per ogni cluster di popolazione.

        È quindi possibile basare tutto sull’AI?

        I mezzi per realizzare un sistema di questo tipo ci sono e, di fatto alcuni governi hanno fatto i primi passi sulla via della digitalizzazione del proprio sistema sanitario. Un esempio ne sono i paesi scandinavi che ne hanno letto le opportunità sia per i pazienti che per la ricerca medica.

        La base di tutto è un sistema centrale che raccoglie ordinatamente e con logiche da Big Data tutte le fonti dati in un unico Hub.

        Se volessimo quindi organizzare la nostra sanità secondo un sistema d’analisi e predittivo simile, dovremmo seguire questi tre passi:

        1. dovremmo dotarci di mezzi tecnologici (hardware e software) per raccogliere tutti i dati necessari in modo ordinato;
        1. successivamente, occorrerebbe disporre o implementare una architettura efficiente che dia struttura ai dati.
        2. infine, per poter poi trarre il massimo vantaggio, occorrerebbe affidarsi agli algoritmi di AI che, sapientemente “istruiti”, dovrebbero elaborare i dati e, allo stesso tempo, apprendere autonomamente il modo di utilizzarli per restituirci informazioni utili al miglioramento delle performance del nostro sistema sanitario.

        L’alleato dell’uomo, in ogni settore

        Credo fermamente che l’intelligenza artificiale abbia le carte in regole per divenire un valido e fidato alleato dell’uomo in ogni campo della nostra vita.

        Usciamo dal campo sanitario e prendiamo ad esempio una realtà imprenditoriale.

        Grazie all’intelligenza artificiale, ogni azienda ha l’occasione di risolvere alcune classi di problemi difficilmente risolvibili con approcci tradizionali.

        Come avviene con l’algoritmo prodotto da Alibaba, che permette di accorciare i tempi di diagnosi sui pazienti, gli algoritmi di Machine Learning, allenati per fare analisi computazionali che a noi esseri umani richiederebbero troppo tempo, possono essere utilizzati in ambito aziendale ottenendo risultati ad alto valore economico.

        Attenzione però a non pretendere di risolvere tutti i tuoi problemi con l’Intelligenza Artificiale!

        Come già indicato nel mio precedente articolo dal titolo “Machine learning per non addetti ai lavori: cos’è e a che ti serve?”, un’accurata collezione di tutti i dati generati e raccolti in ogni dipartimento della tua azienda ( COVID-19 docet! ) è condizione indispensabile per poter successivamente testare e valutare i modelli di ML che meglio rispondono alle esigenze del tuo business.

        Concludendo, la centralità del paziente, in un sistema capace di raccogliere e gestire tutti i suoi dati senza vincoli, è analoga alla centralità della tua Azienda con i suoi dati.

        Quindi, la possibilità di avere o meno un sistema capace di gestire e organizzare questa mole di dati e interagire con differenti entità (nel caso del paziente con le strutture sanitarie, nel caso dell’Azienda con differenti fonti di dati e/o sedi) è la base di partenza fondamentale.

        Su questa struttura vanno testati e “innestati” i modelli di Machine Learning con le dovute cautele di approccio, prendendo in considerazione le peculiarità di ogni ambito applicativo, perché, non mi stancherò mai di dirlo, non esistono soluzioni pronte all’uso per tutti!

        Vuoi scoprire le opportunità che puoi cogliere grazie all’Intelligenza Artificiale?

        Compila il form in basso per richiedermi una consulenza gratuita.







          AccettoNon accetto


          AcconsentoNon acconsento


          • 26 Mar, 2020
          • (0) Commenti
          • By Lorenzo Brambilla
          • Big Data, Intelligenza Artificiale, News, Opportunità

          Machine Learning per non addetti ai lavori: cos’è e a che ti serve?

          Questo articolo ha un obiettivo preciso.

          È per te, imprenditore o manager, che senti da troppo tempo parlare di Trasformazione Digitale, Intelligenza Artificiale e Machine Learning e vorresti, una volta tanto, sentire la voce di chi, come te, non ha un background tecnico e piuttosto che utilizzare incomprensibili termini informatici, parla di concrete applicazioni in ambiti aziendali.

          Voglio superare ogni barriera terminologica e presentare con chiarezza vantaggi e rischi legati all’adozione di queste tecnologie nella tua azienda.

          Così, alla fine di questo articolo, avrai chiaro come e se ha senso, anche per la tua azienda, investire in questo ambito per accrescere la tua competitività.

          Pronto?

          Big data: tanti dati, tante opportunità ma anche tanta confusione

          Probabilmente sarà capitato anche a te di sentire l’ormai celebre frase “i dati sono il nuovo petrolio del 21° secolo”.

          Certo, la disponibilità di grandi masse di dati (Big Data) consente di ottenere informazioni indispensabili per poter prendere importanti decisioni di business.

          Per poter trarre il massimo vantaggio, occorre affidarsi a delle macchine che, sapientemente “istruite”, elaborano i dati e, contemporaneamente, apprendono autonomamente il modo di utilizzarli per restituire informazioni utili al miglioramento delle tue performance aziendali.

          Si parla quindi di Machine Learning, ovvero di macchine programmate per imparare a fare operazioni computazionali che a noi esseri umani richiederebbero troppo tempo.

          Questo articolo potrebbe finire con questa frase:

          il segreto per investire in modo sostenibile in quest’area di innovazione coincide con la capacità (dei professionisti ai quali ti affidi) di organizzare, strutturare e gestire i tuoi dati, prima di scegliere di adottare delle tecnologie.

          Insomma, non esistono “soluzioni di mercato” funzionanti, ovvero subito pronte e buone per tutti. Quello che conta veramente è partire dalle tue necessità e dalle caratteristiche della tua azienda e, solamente dopo, investire in quest’area.

           Andiamo avanti.

          Che cosa significa e a cosa serve il Machine Learning?

          Troppo spesso vengono utilizzati termini complessi che rischiano di confondere le idee.

          Ecco un tipico caso di incomprensibile tecnichese sul quale proverò a fare un po’ di chiarezza.

          A molti esperti di Machine Learning piace utilizzare frasi come questa:

          “un esperimento di Machine Learning consiste nell’estrarre le features dal dataset disponibile e utilizzarle per fare il training di un modello in grado di predire il valore del tuo target.”

           

          Ma cosa significa?

          Io preferisco spiegare lo stesso concetto in questo modo:

          “un esperimento di Machine Learning consiste nell’estrarre le informazioni utili dai dati e nell’utilizzarle per insegnare alla macchina come predire qualcosa che è interessante per il tuo business.”

          Ti sembra più chiaro?

          Ok. Passiamo a un’altra questione.

          A cosa serve il Machine Learning?

          Il Machine Learning permette di andare oltre i limiti umani, legati a memoria e tempo, nel leggere ed elaborare grandi masse di dati.
          È così che la tua azienda può trovare un perfetto alleato per risolvere alcune classi di problemi difficilmente risolvibili con approcci tradizionali.

           

          Modelli di machine learning

          Una volta che hai individuato l’ambito di applicazione di soluzioni di Machine Learning, ovvero il problema che intendi risolvere nella tua azienda, devi scegliere quali tra le due macro-tipologie di modelli fa al tuo caso.

          Supervisionato: quando il modello di ML che adotti viene “allenato” a partire da un dataset noto, ovvero un insieme di dati già in tuo possesso.

          Non supervisionato: quando il modello di ML che adotti viene “allenato” senza conoscere preventivamente l’entità del valore (risultato) da predirre.

          Come avrai già compreso, gli ambiti di applicazione di questi 2 modelli sono veramente tanti ma ciò non significa che tutti i tuoi problemi in azienda siano risolvibili dal Machine Learning.

          È importante tenere ben in mente che l’innovazione contempla anche delle possibilità di insuccesso.

          Quindi, sapere come valutare un modello è fondamentale per capire l’affidamento che gli si può riconoscere e l’utilità che si può trarre.

           

          Come puoi scegliere il miglior modello di ML per la tua azienda?

           Prima di tutto, hai già tutti i dati a tua disposizione per “allenare” e, di conseguenza, valutare preventivamente un particolare modello di ML?

          Mi spiego meglio: prima di scegliere il modello di ML al quale affidare la gestione di un tuo problema aziendale, devi essere sicuro di avere dei dati facilmente gestibili.

          Ricorda: è dalla capacità di rendere fruibile i tuoi dati che devi, prima di tutto, scegliere a chi affidare l’implementazione di soluzioni di ML nella tua azienda.

          Soddisfatta questa condizione, puoi andare avanti suddividendo i tuoi dati in due parti:

          • una prima parte utilizzata per “allenare” il modello fino a quando non viene confermato il modello atteso, ovvero quando si arriva ai risultati attesi;
          •  una seconda parte sulla quale, successivamente, si applica il modello già confermato e che, di conseguenza, verrà trattata più efficientemente.

           

          ML nella tua azienda: approccio e costi

          Riassumendo, a questo punto dopo averti parlato di cosa si intende per ML, a cosa serve, quali sono le principali tipologie di modelli e come si valutano quest’ultimi, manca l’ultimo tassello:

          Come puoi approcciare un progetto di ML efficacemente e limitando i costi?

          Il miglior approccio per valutare preventivamente se la soluzione innovativa risponde ai requisiti necessari per la tua azienda consiste nella creazione di un Prototipo (“Proof of Concept”), prima di sviluppare l’intero processo.

          Solitamente viene utilizzata la cosiddetta metodologia “agile” (contrapposta al modello a cascata: “waterfall”) attraverso la formazione di piccoli team di sviluppo polifunzionali che interagiscono continuamente con le persone che nella tua azienda sono interessate dal processo di sviluppo.

          Lo sviluppo del prototipo viene suddiviso in più “sprint” della durata di due settimane.

          In sintesi, a ogni “Sprint”, viene valutato lo stato di avanzamento e vengono definite le azioni necessarie per procedere nello sviluppo.

          Sono due i vantaggi principali di questo approccio per la tua azienda:

          – il tempo necessario viene ridotto a 6/8 settimane, contro i molti mesi/anni necessari allo sviluppo di un progetto complessivo;

          – l’investimento richiesto è di gran lunga inferiore.

          La creazione di un Prototipo permette quindi di valutare i risultati già durante le primissime fasi di sviluppo.

          In questo modo, puoi decidere se proseguire o meno nell’applicazione di un particolare modello in un ambito più ampio, sviluppando quindi l’intero progetto, con indubbi ritorni in termini di tempi e costi.

            

          Quindi, ti conviene investire in ML?

          A scanso di equivoci, alla fine di questo mio articolo, voglio sintetizzare ciò che, per te, conta di più.

          Utilizzare il nuovo oro nero, i dati, puoi darti dei vantaggi competitivi enormi ma, prima di investire in soluzioni di Machine Learning, devi essere sicuro di seguire il giusto approccio.

          Non esistono soluzioni pronte all’uso buone per tutti.

          Se intendi, come probabilmente molti dei tuoi competitor, seguire questa strada, devi prima di tutto iniziare a collezionare tutti i dati generati e raccolti in ogni dipartimento della tua azienda.

          Solo a quel punto, puoi investire, certo di trarre il massimo valore, con soluzioni custom e testate prima della loro completa implementazione.

          Vuoi scoprire le opportunità che puoi cogliere grazie al Machine Learning?

          Compila il form in basso per richiedermi una consulenza gratuita e parlarne non in tecnichese







            AccettoNon accetto


            AcconsentoNon acconsento


            • 17 Gen, 2020
            • (0) Commenti
            • By Lorenzo Brambilla
            • Big Data, Intelligenza Artificiale, Machine learning, Opportunità, Per non addetti ai lavori
            Sfoglia le pagine

            La nostra azienda
            Termini e Condizioni
            Politica sulla riservatezza
            Politica sui cookie

            Mettiti in contatto

            artea.com s.r.l.

            Via Matteo Bandello, 5
            20123 – Milano -Italy
            P.IVA 10477590961

            Tel:(+39) 02 365 995 59
            info@artea.com

            Iscriviti alla newsletter

            Rimani aggiornato per nuove uscite. Inserisci la tua email e iscriviti alla nostra newsletter.

            Sottoscrivi

            Sottoscrizione alla newsletter




              AccettoNon accetto


              AcconsentoNon acconsento


              © artea.com All right reserved