30-09-2025
Michela Del Pizzo
Michela Del Pizzo
Nei giorni scorsi, gli IBM Studios di Milano hanno ospitato “La logistica che decide”, evento organizzato da GEP Informatica per riflettere sul futuro digitale della supply chain e della logistica. Dalla fotografia del settore ai casi concreti di innovazione, fino alle dimostrazioni live di soluzioni basate su AI e sistemi di ottimizzazione, la mattinata ha offerto ai partecipanti una panoramica densa di contenuti e spunti pratici.
Dopo i saluti di rito da parte di Maurizio Menniti, Responsabile Marketing di Gep Informatica, la parola è passata al professore di Organizzazione Anziendale Andrea Payaro, nel ruolo di moderatore dei panel, che ha tracciato un quadro ampio e articolato dell’evoluzione della supply chain, sottolineando come questo sistema, nato per collegare aziende e partner lungo l’intero percorso del prodotto, si sia progressivamente trasformato, fino ad arrivare oggi ad una catena del valore che ha saputo adattarsi con destrezza e rapidità ai cambiamenti economici e sociali occorsi negli ultimi anni.
Dopo i saluti di rito da parte di Maurizio Menniti, Responsabile Marketing di Gep Informatica, la parola è passata al professore di Organizzazione Anziendale Andrea Payaro, nel ruolo di moderatore dei panel, che ha tracciato un quadro ampio e articolato dell’evoluzione della supply chain, sottolineando come questo sistema, nato per collegare aziende e partner lungo l’intero percorso del prodotto, si sia progressivamente trasformato, fino ad arrivare oggi ad una catena del valore che ha saputo adattarsi con destrezza e rapidità ai cambiamenti economici e sociali occorsi negli ultimi anni.

Riadattare i processi in base ai cambiamenti
Come raccontato abilmente da Payaro, l’idea di adaptive supply chain rappresenta oggi un modello fluido e dinamico, paragonabile a un liquido che si adatta al contenitore che lo ospita. Si tratta di un sistema capace di combinare resilienza, agilità e sostenibilità, innestate in una dimensione profondamente digitale. Le aziende, per affrontare le sfide attuali, devono garantire una visibilità sempre più estesa su tutta la filiera, arrivando a conoscere e monitorare anche i fornitori dei propri fornitori, come avviene già in alcuni settori industriali più avanzati. Questa visibilità si costruisce attraverso lo scambio costante e intelligente di informazioni, supportato da tecnologie digitali, sensori e intelligenza artificiale.
Fondamentale è anche la capacità di guardare avanti, anticipando scenari futuri grazie a strumenti predittivi come l’analisi dei dati, il machine learning e i digital twin. In un contesto dove i fornitori consolidati possono venir meno improvvisamente a causa di tensioni geopolitiche o problemi di trasporto, diventa essenziale la rapidità con cui le reti di approvvigionamento riescono a riconfigurarsi. A tutto questo si aggiunge un’attenzione crescente al tema della sostenibilità: i criteri ESG non possono più essere considerati accessori, ma devono diventare parte integrante delle valutazioni e delle strategie aziendali. Nonostante queste consapevolezze, Payaro ha ricordato come il livello di digitalizzazione della supply chain sia ancora insufficiente. Le sue ricerche mostrano che solo una minoranza di imprese ha raggiunto un’integrazione realmente avanzata, mentre la maggior parte resta indietro. Eppure i dati sono chiari: le aziende più digitalizzate e integrate possono ottenere fino al 20% di margini in più rispetto alle altre.
La logistica innight di Lindbergh
A seguire, si è entrati nel dettaglio del caso studio Lindbergh, esempio di come la combinazione di un modello operativo chiaro, una filiera di partner coesa e una piattaforma tecnologica integrata abbia trasformato un’idea - consegnare dove e quando serve, riducendo sprechi e complessità - in un vantaggio competitivo misurabile per il cliente finale. Michele Corradi, CEO di Lindbergh, ha spiegato come l’idea della “logistica notturna” sia nata già nel 2006 con l’obiettivo di servire in modo omogeneo, ogni notte e su tutto il territorio nazionale, i tecnici manutentori direttamente a bordo dei loro veicoli, così che al mattino trovino i ricambi pronti per gli interventi. Il modello - consegna “in-boot” entro le 7:00 di mattina - si è evoluto mettendo il tecnico al centro: attorno alla consegna dei ricambi si sono aggiunti servizi complementari che incrementano la produttività sul campo, come il ritiro dei resi e dei rifiuti speciali generati dagli interventi e altre attività accessorie. La complessità non è banale, specie per gli adempimenti ambientali, ma il dialogo costante con i clienti ha consentito di progettare processi e sistemi capaci di reggere il livello di servizio.
Lato software, Corradi ha spiegato che per anni Lindbergh ha operato con sistemi separati per consegne e ritiri, ridondanza e incoerenze dei dati, driver costretti a operare su strumenti diversi e un customer service spesso non al corrente di quanto successo. La priorità è stata dunque convergere su un unico sistema che integrasse processi e informazioni, rendendo i dati disponibili subito e in modo affidabile.
Come raccontato abilmente da Payaro, l’idea di adaptive supply chain rappresenta oggi un modello fluido e dinamico, paragonabile a un liquido che si adatta al contenitore che lo ospita. Si tratta di un sistema capace di combinare resilienza, agilità e sostenibilità, innestate in una dimensione profondamente digitale. Le aziende, per affrontare le sfide attuali, devono garantire una visibilità sempre più estesa su tutta la filiera, arrivando a conoscere e monitorare anche i fornitori dei propri fornitori, come avviene già in alcuni settori industriali più avanzati. Questa visibilità si costruisce attraverso lo scambio costante e intelligente di informazioni, supportato da tecnologie digitali, sensori e intelligenza artificiale.
Fondamentale è anche la capacità di guardare avanti, anticipando scenari futuri grazie a strumenti predittivi come l’analisi dei dati, il machine learning e i digital twin. In un contesto dove i fornitori consolidati possono venir meno improvvisamente a causa di tensioni geopolitiche o problemi di trasporto, diventa essenziale la rapidità con cui le reti di approvvigionamento riescono a riconfigurarsi. A tutto questo si aggiunge un’attenzione crescente al tema della sostenibilità: i criteri ESG non possono più essere considerati accessori, ma devono diventare parte integrante delle valutazioni e delle strategie aziendali. Nonostante queste consapevolezze, Payaro ha ricordato come il livello di digitalizzazione della supply chain sia ancora insufficiente. Le sue ricerche mostrano che solo una minoranza di imprese ha raggiunto un’integrazione realmente avanzata, mentre la maggior parte resta indietro. Eppure i dati sono chiari: le aziende più digitalizzate e integrate possono ottenere fino al 20% di margini in più rispetto alle altre.
La logistica innight di Lindbergh
A seguire, si è entrati nel dettaglio del caso studio Lindbergh, esempio di come la combinazione di un modello operativo chiaro, una filiera di partner coesa e una piattaforma tecnologica integrata abbia trasformato un’idea - consegnare dove e quando serve, riducendo sprechi e complessità - in un vantaggio competitivo misurabile per il cliente finale. Michele Corradi, CEO di Lindbergh, ha spiegato come l’idea della “logistica notturna” sia nata già nel 2006 con l’obiettivo di servire in modo omogeneo, ogni notte e su tutto il territorio nazionale, i tecnici manutentori direttamente a bordo dei loro veicoli, così che al mattino trovino i ricambi pronti per gli interventi. Il modello - consegna “in-boot” entro le 7:00 di mattina - si è evoluto mettendo il tecnico al centro: attorno alla consegna dei ricambi si sono aggiunti servizi complementari che incrementano la produttività sul campo, come il ritiro dei resi e dei rifiuti speciali generati dagli interventi e altre attività accessorie. La complessità non è banale, specie per gli adempimenti ambientali, ma il dialogo costante con i clienti ha consentito di progettare processi e sistemi capaci di reggere il livello di servizio.
Lato software, Corradi ha spiegato che per anni Lindbergh ha operato con sistemi separati per consegne e ritiri, ridondanza e incoerenze dei dati, driver costretti a operare su strumenti diversi e un customer service spesso non al corrente di quanto successo. La priorità è stata dunque convergere su un unico sistema che integrasse processi e informazioni, rendendo i dati disponibili subito e in modo affidabile.

A seguire, Arceo Desideri, Project Manager di GEP Informatica, ha illustrato come il nuovo TMS digitalizzi l’intero ciclo, dall’acquisizione ordini fino all’esecuzione, a partire dalla normalizzazione dei flussi di interfaccia e dalla definizione del network distributivo, collegando ogni fase di trasporto alla singola spedizione. La pianificazione combina regole e algoritmi per proporre automaticamente i giri ottimali nel rispetto di Service Level Agreement e vincoli; sono gestite casistiche operative tipiche del field service - come assenze temporanee dei tecnici o deviazioni verso punti alternativi - con riattivazioni automatiche a fine periodo. In ingresso magazzino, la lettura dei barcode indirizza i colli verso le baie di uscita corrette, facilitando il carico notturno. Sul campo, l’app mobile guida l’autista nelle fermate, certifica con barcode l’esito di consegne e ritiri, consente di annotare anomalie e allegare foto; tutto è visibile in tempo reale dal TMS, dove ufficio traffico e customer service monitorano avanzamenti e KPI. A corredo, un portale web offre ai committenti la tracciabilità completa, documenti e cronologia degli eventi, mentre la componente di rating e contrattualistica valorizza automaticamente i servizi erogati, abilita la prefatturazione senza interventi manuali e alimenta le analisi di business intelligence, utili anche in chiave proattiva per migliorare ulteriormente la pianificazione.
Sul palco è poi salito il Direttore Generale di Gep Informatica, Giorgio Berni, che ha spiegato perché realtà di grandi dimensioni scelgono un’azienda “media” ma iper-specializzata. La chiave è l’approccio soluzione-centrico: non “vendere software”, bensì co-progettare con il cliente, portare esperienza di dominio e poi tradurre il disegno operativo in prodotto. La verticalità del team, la coesione del gruppo di lavoro e la capacità di intervenire end-to-end sui processi logistici sono, secondo Berni, ciò che consente di competere: il software proprietario garantisce velocità di evoluzione e flessibilità, mentre per componenti specialistici - come gli algoritmi di instradamento - si integrano i migliori provider, lasciando al cliente la libertà di scelta. L’orientamento tecnologico verso IBM nasce proprio dall’esigenza di affidabilità “enterprise” in contesti business-critical. A chiudere il primo round di testimonianze è stata Roberta Bavaro, Ecosystem Director di IBM Italia, che ha inquadrato il ruolo degli IBM Studios come “casa dell’innovazione” e quello dell’ecosistema aperto come condizione per trasformare la tecnologia in risultati. La strategia poggia su AI e Hybrid Cloud: IBM watsonx.ai per modelli e agenti affidabili, governati e trasparenti, integrato nativamente con Red Hat OpenShift su IBM Cloud per rispondere anche a requisiti di sovranità del dato. In questo quadro si inserisce la collaborazione con GEP Informatica per costruire soluzioni di supply chain intelligente che uniscono efficienza operativa, ottimizzazione e sostenibilità.
Dati che guidano le decisioni
La seconda e ultima parte della mattinata è stata dedicata al ruolo sempre più centrale dell’intelligenza artificiale. Andrea Di Tella, R&D, IA Engineer, Software Architect di Gep Informatica, ha infatti mostrato applicazioni pratiche già operative: dall’inserimento automatico degli ordini di trasporto, al riconoscimento delle etichette, fino al controllo incrociato delle bolle di consegna. Di Tella ha poi approfondito il tema degli Agentic AI, sistemi capaci di combinare diverse abilità – dal riconoscimento di immagini alla sintesi dei testi – per raggiungere obiettivi precisi in contesti definiti. Questi strumenti rappresentano il passaggio dall’AI sperimentale a quella realmente produttiva e, non a caso, Di Tella ha accennato alla prossima fase di sviluppo del progetto di digital supply chain con Lindbergh: l’aggancio tra ordini di sostituzione batteria dei carrelli elevatori e successive attività di trasporto e montaggio per un importante cliente del settore intralogistica come Jungheinrich. Grazie all’AI, un processo oggi gestito manualmente e con documenti cartacei potrà essere digitalizzato e integrato nel TMS, aumentando efficienza e velocità.
Sul palco è poi salito il Direttore Generale di Gep Informatica, Giorgio Berni, che ha spiegato perché realtà di grandi dimensioni scelgono un’azienda “media” ma iper-specializzata. La chiave è l’approccio soluzione-centrico: non “vendere software”, bensì co-progettare con il cliente, portare esperienza di dominio e poi tradurre il disegno operativo in prodotto. La verticalità del team, la coesione del gruppo di lavoro e la capacità di intervenire end-to-end sui processi logistici sono, secondo Berni, ciò che consente di competere: il software proprietario garantisce velocità di evoluzione e flessibilità, mentre per componenti specialistici - come gli algoritmi di instradamento - si integrano i migliori provider, lasciando al cliente la libertà di scelta. L’orientamento tecnologico verso IBM nasce proprio dall’esigenza di affidabilità “enterprise” in contesti business-critical. A chiudere il primo round di testimonianze è stata Roberta Bavaro, Ecosystem Director di IBM Italia, che ha inquadrato il ruolo degli IBM Studios come “casa dell’innovazione” e quello dell’ecosistema aperto come condizione per trasformare la tecnologia in risultati. La strategia poggia su AI e Hybrid Cloud: IBM watsonx.ai per modelli e agenti affidabili, governati e trasparenti, integrato nativamente con Red Hat OpenShift su IBM Cloud per rispondere anche a requisiti di sovranità del dato. In questo quadro si inserisce la collaborazione con GEP Informatica per costruire soluzioni di supply chain intelligente che uniscono efficienza operativa, ottimizzazione e sostenibilità.
Dati che guidano le decisioni
La seconda e ultima parte della mattinata è stata dedicata al ruolo sempre più centrale dell’intelligenza artificiale. Andrea Di Tella, R&D, IA Engineer, Software Architect di Gep Informatica, ha infatti mostrato applicazioni pratiche già operative: dall’inserimento automatico degli ordini di trasporto, al riconoscimento delle etichette, fino al controllo incrociato delle bolle di consegna. Di Tella ha poi approfondito il tema degli Agentic AI, sistemi capaci di combinare diverse abilità – dal riconoscimento di immagini alla sintesi dei testi – per raggiungere obiettivi precisi in contesti definiti. Questi strumenti rappresentano il passaggio dall’AI sperimentale a quella realmente produttiva e, non a caso, Di Tella ha accennato alla prossima fase di sviluppo del progetto di digital supply chain con Lindbergh: l’aggancio tra ordini di sostituzione batteria dei carrelli elevatori e successive attività di trasporto e montaggio per un importante cliente del settore intralogistica come Jungheinrich. Grazie all’AI, un processo oggi gestito manualmente e con documenti cartacei potrà essere digitalizzato e integrato nel TMS, aumentando efficienza e velocità.

Successivamente, Bianca Maria Romano, IBM Ecosystem Technical Manager, ha offerto una panoramica su watsonx.ai e sugli AI Agents sviluppati da IBM, pensati per la supply chain e i processi di magazzino. A chiudere le presentazioni, l’intervento di Attilio Amabili, Business Analyst di GEP Informatica, che ha mostrato come un sistema di Business Intelligence per la logistica possa trasformare dashboard e dati in strumenti concreti di supporto decisionale. Nel dialogo sull’intelligenza artificiale applicata alla logistica, Amabili ha evidenziato come ogni progetto debba partire da una fase di progettazione accurata, scomponendo il problema in fasi e funzioni da integrare in modo modulare. Nella supply chain questo significa analizzare approvvigionamento, produzione, distribuzione e resi, arricchendo ciascun ambito con capacità predittive e di automazione, fino a includere anche i feedback dei clienti come fonte di dati utili. In chiusura, Amabili ha però sottolineato l’importanza di mantenere sempre la governance umana sulle decisioni, ricordando che l’AI deve supportare, non sostituire, il giudizio manageriale.