logo il merito

ISSN 2532-8913

Il calcio fuori dal campo: start-up e big data (di Filippo Pauciullo, Gian Piero Cervellara e Bernardo Corradi)

Il calcio fuori dal campo: start-up e big data

(di Filippo Pauciullo, Gian Piero Cervellera e Bernardo Corradi)

 

1.- Il fenomeno start-up in Italia

Numerosi studi evidenziano che le start-up sono responsabili di una parte consistente della crescita del PIL e dei nuovi posti di lavoro generati. In particolare, l’aumento della consapevolezza sull’importanza e il ruolo che hanno le giovani imprese digitali all’interno del sistema economico ha portato dei cambiamenti rilevanti nell’ecosistema imprenditoriale e in quello di venture capital: risultano infatti crescenti i finanziamenti in ambito ICT e Mobile.

L’innovazione, intesa nel suo significato più ampio, è per i sistemi economici una necessità fisiologica che nasce dall’esigenza per ognuno di essi di tendere continuamente ad accrescere la rispettiva capacità di competere. Le nuove imprese ad alta tecnologia rappresentano per questo una risorsa decisiva ai fini dello sviluppo delle moderne economie industrializzate, costituendo il principale veicolo attraverso cui i risultati della ricerca trovano sbocco e applicazione nelle attività produttive.

Lo stimolo a mettere in campo iniziative per favorire la creazione di start-up innovative nasce proprio dalla consapevolezza che i processi di modernizzazione imposti dal confronto sul mercato globale richiedono un sistema imprenditoriale che incorpori competenze tecnologiche e attitudini ad elaborare e sviluppare innovazione.

I Paesi più evoluti dal punto di vista della nuova imprenditorialità in Europa sono Gran Bretagna e Francia, a cui si affiancano quelli del Nord, con Svezia, Finlandia e Danimarca, cui si aggiungono Svizzera e Germania, mentre l’Italia si dimostra ancora lontana dagli investimenti che si realizzano da anni in altri Paesi in start-up innovative. Di seguito si riportano alcuni dati che fotografano il fenomeno start-up in Italia:

Quante sono

A fine settembre 2016 il numero di startup innovative iscritte alla sezione speciale del Registro delle Imprese è pari a 6.363, in aumento di 420 unità rispetto alla fine di giugno (+7,07%). Le start-up rappresentano lo 0,4% del milione e mezzo di Società di Capitali attive in Italia (a fine giugno l’incidenza del fenomeno era pari allo 0,38%, a marzo 0,35%).

Il capitale medio

Il capitale sociale delle startup è pari complessivamente a 335,5 milioni di euro, che corrisponde in media a 52,7 mila euro a impresa. Il capitale medio è caratterizzato da un decremento rispetto al trimestre precedente pari al 4,5%, mentre per il complesso delle società di capitali la diminuzione è stata dell’1,2%.

I settori di attività

Per quanto riguarda la distribuzione per settori di attività, il 70,52% delle startup innovative fornisce servizi alle imprese (in particolare, prevalgono le seguenti specializzazioni: produzione software e consulenza informatica, 29,8%; attività di R&S, 14,7%; attività dei servizi d’informazione, 8,1%), il 19,6% opera nei settori dell’industria in senso stretto (su tutti: fabbricazione di computer e prodotti elettronici e ottici, 3,8%; fabbricazione di macchinari, 3,5%; fabbricazione di apparecchiature elettriche, 2,2%) mentre il 4,4% opera nel commercio.

Chi c’è dietro

Guardando alla composizione delle compagini sociali, le startup innovative con una prevalenza femminile sono 882, il 13,86% del totale, contro un rapporto del 16,83% se si prende in esame l’universo delle società di capitali. Quelle in cui almeno una donna è presente nella compagine sociale sono 2.831 (44,49% del totale, quota inferiore a quella fatta registrare dal complesso delle società di capitali, 49,76%). Le start-up innovative a prevalenza giovanile (under 35) sono 1.425, il 22,4% del totale, una quota più di tre volte superiore rispetto a quella rilevata tra tutte le società di capitali (6,85%). Quelle in cui almeno un giovane è presente nella compagine sociale sono 2.430 (38,19% del totale, contro un rapporto del 13,36% se si considera la totalità delle società di capitali italiane). Le start-up innovative con una compagine sociale a prevalenza straniera sono 164, il 2,58% del totale, una quota inferiore a quella osservata nel complesso delle società di capitali (4,29%). Quelle in cui è presente almeno un cittadino non italiano sono 821, il 12,9% del totale; tale quota è superiore a quella del complesso delle società di capitali (10,51%).

Dove sono

Venendo alla distribuzione geografica del fenomeno, in valore assoluto la Lombardia è la regione in cui è localizzato il maggior numero di startup innovative: 1.382, pari al 21,72% del totale nazionale. Seguono l’Emilia-Romagna con 782 (12,29%), il Lazio 625 (9,82%), il Veneto 492 (7,73%) e la Campania 404 (6,35%), che per la prima volta è entrata tra le prime cinque superando il Piemonte. In coda alla classifica figurano la Basilicata con 48, il Molise con 25 e la Valle d’Aosta con 14 startup innovative. La regione con la più elevata incidenza di startup innovative in rapporto al totale delle società di capitali è il Trentino-Alto Adige, con 105 startup ogni 10mila imprese. Seguono le Marche con 77, l’Emilia-Romagna con 70, il Friuli Venezia-Giulia con 63 e la Valle d’Aosta con 62. Milano, invece, è la provincia in cui è insediato il numero più elevato di startup innovative. Seguono Roma, Torino, Bologna e Napoli.

Il valore aggiunto

Per ogni euro di produzione le startup innovative generano in media 18 centesimi di valore aggiunto (contro 15 nel 2014), un dato inferiore rispetto a quello del complesso delle società di capitali (22 centesimi). Limitatamente alle imprese in utile, le start-up generano, invece, più valore aggiunto sul valore totale della produzione rispetto alle società di capitali (32 centesimi contro 22).

2. Il caso Football Intelligence

In questo contesto si colloca anche Football Intelligence, che ha come core business l’elaborazione dati e più precisamente l’elaborazione di dati sportivi.

Football Intelligence nasce circa 18 mesi fa quando gli Autori di questo articolo - Filippo Pauciullo (attuale project manager dell’azienda), e Gian Piero Cervellera (Docente a contratto di Informatica Applicata presso l’Università degli Studi di Siena) - presentano il progetto a Bernardo Corradi, già loro amico. L’ex calciatore ne rimane molto colpito.

Oggi, infatti, la tecnologia rileva una moltitudine di dati talmente ampia da risultare, nell’insieme, di difficile interpretazione. Basta guardare una partita di calcio in tv per rendersi conto di quante statistiche si possono ottenere: gol fatti, gol subiti, numeri di tiri, numero di punizioni, distanze di tiro, posizione in campo del giocatore… solo per citarne alcune. Football Intelligence nasce con l’idea di trasformare questa mole di numeri in informazione, utili per gli allenatori ed il loro staff.

Per entrare un po’ più nel dettaglio cerchiamo di rispondere a questa banale domanda: è davvero così cambiato il calcio?

Il calcio si gioca sempre con la palla in 11 contro 11, oggi però rispetto al passato abbiamo a disposizione più tecnologia e dati che possono essere sfruttati come supporto competitivo per monitorare le performance degli atleti. L’analisi ed elaborazione dati che Football Intelligence propone non è quindi una soluzione ma un supporto che può aumentare il vantaggio competitivo di ogni allenatore.

Football Intelligence propone modelli per il monitoraggio delle performance dei calciatori, indici e soglie di rendimento dei giocatori, simulazioni di gioco e supporti per scegliere il giocatore più idoneo, già in sede di calcio mercato…

La validità del progetto Football Intelligence pare confermata dalla vittoria del contest #hackmcfc del Manchester City. L’idea di partecipare è nata quasi per caso: una mattina in cui eravamo riuniti attorno a un tavolo per preparare alcuni lavori, ci siamo iscritti e ci hanno selezionato. E’ stata una grande soddisfazione vincere il premio come migliore idea.

Il modello che Football Intelligence ha creato e presentato al Manchester City analizza, sofisticatamente, sia i flussi di gioco che i sistemi tattici delle partite prese in esame. In particolare, il singolo giocatore viene valutato nei suoi movimenti, sia rispetto ai compagni che agli avversari, al fine di riuscire a studiare le tattiche e gli schemi più efficaci.

Tre sono i risultati concreti:

  • studio ed analisi storica del comportamento della propria squadra e della squadra avversaria nei vari contesti di gioco analizzando i dati di traking: azioni più frequenti, distanze, come si muovono i giocatori sul campo rispetto alla palla e le loro “tendenze”: come e a chi passano la palla, come si muovono se la palla è in un determinato punto, le interazioni tra giocatori ecc.;

  • studio ed analisi della tattica più efficace, tenendo conto dei punti deboli dell’avversario: vengono simulate le linee di passaggio più idonee per “concludere in porta”;

  • in ottica calcio mercato il sistema consente di verificare l’inserimento di un nuovo giocatore nel contesto tattico della squadra e quanto quest’ultimo può essere funzionale ad un determinato progetto di gioco: non sempre infatti il giocatore più forte in assoluto è, in concreto, il migliore per una squadra.

La crescita dell’azienda è andata di pari passo con le attività di ricerca e sviluppo portate avanti insieme ad alcuni allenatori di Serie A e con aziende del settore rilevazione dati. Attualmente stiamo lanciando alcuni servizi in partnership con le maggiori aziende di rilevazione dati, ma non si ferma di certo la preziosa attività di ricerca e sviluppo per proporre supporti sempre più affidabili per la preparazione delle partite.

Chiaramente non è tutto rose e fiori il mondo delle start-up; in generale, per una idea che viene messa a reddito, ce ne sono a centinaia che falliscono. Spesso mancano i finanziamenti e le aziende non riescono ad autofinanziarsi. Nel settore dello sport forse le difficoltà sono anche maggiori. Infatti, il settore sportivo e in particolare il calcio rispetto ad altri ambiti è ancora molto “acerbo” per recepire simili innovazioni. La difficoltà sta tutta nel cercare di proporre cose semplici e utili che possano essere recepite da parte degli interlocutori che, nella maggior parte dei casi, sono allenatori o tecnici addetti ai lavori.

In ogni caso, a piccoli passi, ma qualcosa si muove. Dalla totale diffidenza di qualche anno fa oggi stiamo finalmente vedendo i primi risultati di applicazione di supporti tecnologici. E ciò anche grazie ai molti investimenti che importanti i aziende hanno fatto nel campo della rilevazione dei dati. Il prossimo passo sarà riuscire a elaborare questi dati per ottimizzarne la consultazione.

E’ esattamente questo il core business di Football Intelligence che acquisisce i dati dalle aziende di rilevazione e li elabora.

 

 

(30 gennaio 2017)

 

Email

“Capitalismo socialista”: l’ossimoro della Sharing Economy (di Francesco Laschi)

“Capitalismo socialista”: l’ossimoro della Sharing Economy

di Francesco Laschi

 

I nostri figli guideranno veicoli silenziosi, puliti e intelligenti, integrati in una rete interattiva piatta, distribuita e collaborativa. Anche solo questo è un segno della fine di un’era economica e dell’inizio di un’altra” (Jeremy Rifkin).

Le parole del noto economista americano affidano un ruolo centrale al concetto di collaborazione, ritenuta cruciale nella nuova e nascente economia mondiale. Più volte Rifkin ha ribadito come la cosiddetta sharing economy, l’economia della condivisione, stia sostituendo i due maggiori sistemi economici del novecento: socialismo e capitalismo. Anche se, a ben vedere, “sostituire” forse non è proprio la parola più adatta, dal momento che, se analizzata, la nuova economia costituisce un modello ibrido che si pone in mezzo ai due “vecchi” mondi: da una parte logiche di mercato e commerciali spinte, profondamente ispirate dal sistema capitalistico; dall’altra una rete collaborativa, basata sulla condivisione di beni e servizi. Di certo, tenuto conto di vari campanelli d’allarme (calo dei PIL dei paesi economicamente forti, disoccupazione crescente, compressione delle quote di mercato e crescita stagnante), le “risorse” della “Seconda Rivoluzione Industriale”, quali centralità delle economie legate al petrolio, all’industria e non più all’agricoltura e all’estensione dei centri urbani, stanno viaggiando verso l’esaurimento e, dopo una fase di maturità, l’economia ad esse collegata sembra avviarsi verso una parabola discendente. In tal senso, la progressiva e rapida crescita dei settori di “condivisione” a discapito di quelli tradizionali è ben descritta ad esempio nel lavoro di PWC http://www.pwc.co.uk/issues/megatrends/collisions/sharingeconomy/the-sharing-economy-sizing-the-revenue-opportunity.html, dove si parla di un giro di affari complessivo di 335 miliardi di dollari entro il 2025, quando – si prevede – verranno raggiunti i guadagni dei settori tradizionali. I ritmi di sviluppo, del resto, appaiono davvero vertiginosi, in alcuni casi superiori del 1000 %.

Ma proviamo a definire i veri punti di forza della nuova economia della condivisione. Prenderei le mosse da una definizione, quella contenuta nella proposta di legge presentata alla Camera dei Deputati il 27 gennaio 2016, riguardante appunto la sharing economy (“Disciplina delle piattaforme digitali per la condivisione di beni e servizi e disposizioni per la promozione dell'economia della condivisione”): “l’economia generata dall’allocazione ottimizzata e condivisa delle risorse di spazio, tempo, beni e servizi tramite piattaforme digitali. I gestori di tali piattaforme agiscono da abilitatori mettendo in contatto gli utenti e possono offrire servizi di valore aggiunto. I beni che generano valore per la piattaforma appartengono agli utenti. Tra gestori e utenti non sussiste alcun rapporto di lavoro subordinato. Sono escluse le piattaforme che operano intermediazione in favore di operatori professionali iscritti al registro delle imprese”.

Due figure principali, i gestori e gli utenti. I primi che mettono in contatto gli utenti,; i secondi che, invece, mettono a disposizione il bene o servizio attraverso la piattaforma. Ciò premesso, vorrei analizzare i punti di forza di tale approccio economico, partendo “dalla superficie”. Ebbene, le aziende operanti nella sharing economy si basano su un sistema di erogazione di servizi tramite piattaforme digitali strettamente legate a social network, ubique, e in continua connessione con l’utente. Si basano quindi su meccanismi semplici da capire e usare, in modo da accompagnare l’utente durante tutta l’esperienza di fruizione e facilitare l’acquisto. La facilità di acquisto e utilizzo è importante, poiché l’erogazione dei servizi a prezzi contenuti deve spingere il cliente verso reiterati acquisti e, nel migliore dei casi, alla fidelizzazione data da un utilizzo quotidiano. Essendo società digitali, il cliente (in un’ottica user-centric) è centrale nella definizione del prodotto. L’utente, difatti, si giova principalmente di un risparmio economico notevole rispetto ai servizi tradizionali; ad esempio, nei servizi di car sharing i prezzi applicati sono inferiori a quelli di un taxi, e il servizio offerto comprende benzina, parcheggi anche a pagamento, capillarità, ingressi in zone a traffico limitato. Bisogna poi pensare all’opportunità che un utilizzatore trae dal network, non solo per il bene che, tramite lo sharing, mette a reddito, ma anche dal punto di vista fiscale. Pensiamo al famoso caso di Airbnb, società che permette di condividere un alloggio con gli iscritti alla community; i Comuni hanno soltanto recentemente previsto la tassa di soggiorno per tali tipologie di affitto turistico e, in generale, il regime fiscale di queste attività non risulta ancora ben definito per mancanza di una normativa ad hoc (tali lacune però saranno presto colmate visto il clamore sorto intorno a tali mercati digitali; in tal senso vedasi anche la già citata proposta di legge “Disciplina delle piattaforme digitali per la condivisione di beni e servizi e disposizioni per la promozione dell'economia della condivisione”[1]). La possibilità di proporre prezzi altamente competitivi deriva, in gran parte, dai costi marginali decisamente bassi delle sharing enterprises: costi strutturali, di rinnovamento locali o mezzi sono infatti scaricati in toto sull’utente che mette il bene a disposizione. Assai ridotti sono poi i costi organizzativi. Tutte le aziende dispongono di organizzazioni leggere, con organico inferiore a qualsiasi altro competitor: Blablacar ha 100 dipendenti (dato più recente al 2013), Airbnb 1600, Uber 3500, Robin Hood ha iniziato l’attività con 3 dipendenti. Ciò comporta di minori costi per personale, circolazione rapida delle informazioni interne, abbattimento dei “silos” aziendali e dei compartimenti stagni.

Si aggiunga la trasparenza. Un fattore non trascurabile: i prezzi di acquisto offerti dalle società dell’economia condivisa sono sempre piuttosto trasparenti, evidenziando con chiarezza commissioni, tasse, tariffe. Provate ad esempio a leggere una mail di ricevuta di Enjoy, la società di car sharing del gruppo ENI, oppure la ricevuta di una stanza affittata con Airbnb, certamente troverete ben distinti prezzo della camera, eventuali tasse (come IVA), commissioni per il servizio. Tali importi sono comunque chiari anche prima dell’acquisto e chiaro è, soprattutto, il prezzo finale del bene che andremo a noleggiare o affittare. La trasparenza, del resto, è oggi necessaria per le attività on line: essere trasparenti è la via da seguire per fidelizzare il cliente.

I motivi del successo della sharing economy appaiono, insomma, piuttosto chiari. Ma possiamo definirla una rivoluzione non solo in termini di business, ma anche culturale?

Bene ha detto Claudio Giunta, “un utente sicuro di sé e del suo mondo è l'ultima cosa che la macchina del consumo possa augurarsi”; ciò a riprova del fatto che il superamento degli stereotipi economici passa dalla crescita culturale dell’individuo, anzitutto, e dal mercato, poi. La sharing economy ha un bisogno vitale: alfabetizzare l’utente finale; quest’ultimo, per accedere ai vari servizi offerti, è infatti costretto a “digitalizzarsi” . Vi è poi il tema – centrale – del network collaborativo, cui si accennava all’inizio. Il network rappresenta difatti il valore economico fondamentale per la sharing economy. Avere una community ricca di utenti significa non solo avere molti clienti, ma anche avere a disposizione i dati riguardanti gli stessi. Lo studio e l’analisi dei big data è dunque il patrimonio più prezioso, vera e propria moneta di scambio, in quanto la gestione dei dati può portare un enorme vantaggio competitivo e ritorni economici cospicui, grazie alla predizione dei bisogni futuri fatta con estrema precisione rispetto al passato.

L’attenzione delle aziende ai dati che rendiamo disponibili in rete (non solo le informazioni personali, ma i nostri interessi, attività, preferenze ecc.) mira infine alla predisposizione di una sorta di “guida” per il consumatore finale che lo conduca all’acquisto dei propri prodotti. Il risultato è una “intermediazione” del mondo reale, dove l’esperienza diretta, i sensi, l’istinto e la ricerca quali-quantitativa della persona-consumatore sono condizionati da una digital map, una strada creata digitalmente per influenzare le scelte dell’user nel quotidiano.

Una delle più grandi sfide per la rivoluzione della condivisione sarà quindi quella di creare la capacità mentale di svincolarsi dai percorsi predisposti, attraverso nuove logiche e nuove interpretazioni, non solo del mercato, ma della realtà stessa. Difficile, se non impossibile, fare previsioni su questa vera e propria evoluzione delle forme del pensiero umano. Rimane però sempre valida la riflessione di Albert Einstein: “Il mondo che abbiamo creato è il prodotto del nostro pensiero e dunque non può cambiare se prima non modifichiamo il nostro modo di pensare”. Al centro – si spera e si crede – vi sarà sempre l’Uomo e il suo pensiero. Al centro di una “nuova intelligenza collettiva” per un mondo dove la condivisione, appunto, diviene economia.

30 gennaio 2017

 


[1] La disciplina fiscale è, in particolare, contenuta nell’art. 5. Il reddito percepito dagli utenti operatori mediante la piattaforma digitale è denominato “reddito da attività di economia della condivisione non professionale” ed è indicato in un’apposita sezione della dichiarazione dei redditi. Ai redditi fino a 10.000 euro prodotti mediante le piattaforme digitali si applica un’imposta pari al 10 per cento. I redditi superiori a 10.000 euro sono invece cumulati con i redditi da lavoro dipendente o da lavoro autonomo e ad essi si applica dunque l’aliquota corrispondente. I gestori operano, in relazione ai redditi generati mediante le piattaforme digitali, in qualità di sostituti d’imposta degli utenti operatori. A tale fine, i gestori aventi sede o residenza all’estero devono dotarsi di una stabile organizzazione in Italia. Gli stessi gestori comunicano all’Agenzia delle entrate i dati relativi a eventuali transazioni economiche che avvengono tramite le piattaforme digitali, anche qualora gli utenti operatori non percepiscano alcun reddito dall’attività svolta mediante le piattaforme medesime.

 

Email

Meritocrazia, mediocrazia. Le lezioni dalla fisica dei sistemi complessi. Dialogo con Andrea Rapisarda e Alessandro Pluchino. (di Michele Ciavarella e Simone Lucattini) (2)

Meritocrazia, mediocrazia. Le lezioni dalla fisica dei sistemi complessi

(dialogo con Andrea Rapisarda e Alessandro Pluchino)

di Michele Ciavarella e Simone Lucattini

 

Andrea Rapisarda e Alessandro Pluchino sono professori di fisica teorica all’Università di Catania, e hanno vinto, insieme a Cesare Garofalo (sociologo), il premio IG-NOBEL 2010 per “MANAGEMENT” dato dalla Harvard University, per aver “dimostrato matematicamente che le organizzazioni potrebbero diventare più efficienti se le promozioni fossero fatte a caso!”

Il Merito. Pratica per lo sviluppo” propone oggi ai Lettori un dialogo a più voci per discutere delle tesi, apparentemente “eretiche”, di Rapisarda e Pluchino.

MC: Carissimi, mi sono ricordato del vostro famoso lavoro su principio di Peter e merito. Come forse non tutti sanno, Lawrence J. Peter è lo psicologo canadese che alla fine degli anni ’60 enunciò un principio, poi divenuto celebre, secondo il quale i membri di una organizzazione gerarchica, promossi attraverso selezione meritocratica, scalano i livelli della gerarchia fino a raggiungere il loro livello di massima incompetenza. La logica che sta dietro l’affermazione, apparentemente ironica, di Peter è che in molti casi, quando si è promossi al livello successivo della scala gerarchica perché si è bravi a fare il proprio lavoro, nulla garantisce che la nuova mansione, comportando in genere abilità e competenze diverse, possa essere eseguita con lo stesso rendimento della mansione precedente. Utilizzando la matematica e le simulazioni ad agenti, voi avete realizzato un modello estremamente semplificato di una organizzazione gerarchica virtuale (vedi figura) per mezzo del quale mostrate non solo che il principio di Peter è assolutamente reale, ma anche che è possibile contrastarlo promuovendo le persone a caso invece che per i loro meriti. Ricordo che il maggiore successo del vostro contributo è stato in USA perché, per quel sistema, la promozione “a caso” è un vero shock/cambio di paradigma: un insulto, quasi, al concetto di meritocrazia anglosassone. Forse proprio per questo il vostro studio è stato preso sul serio più in quel mondo, mentre in Italia dubito che abbia davvero suscitato riflessioni serie. D’altronde nemmeno il sistema italiano, basato spesso sulla mediocrazia della “casta”, mi pare stia andando lontano. Ma venendo al punto, sapete di qualche multinazionale o impresa che abbia adottato il vostro sistema di promozione casuale?

E ancora – consentitemi – , uno spunto di riflessione mi pare venga da un sociologo canadese, Deneault, che sta facendo notizia con un suo libro (non ancora tradotto in italiano) sulla “Mediocrazia”. Le tesi del libro sono ben sintetizzate da Mincuzzi del Sole-24ore: “Essere mediocri, spiega Deneault, non vuol dire essere incompetenti. Anzi, è vero il contrario. Il sistema incoraggia l’ascesa di individui mediamente competenti a discapito dei supercompetenti e degli incompetenti. Questi ultimi per ovvi motivi (sono inefficienti), i primi perché rischiano di mettere in discussione il sistema e le sue convenzioni. Ma comunque, il mediocre deve essere un esperto. Deve avere una competenza utile ma che non rimetta in discussione i fondamenti ideologici del sistema. Lo spirito critico deve essere limitato e ristretto all’interno di specifici confini perché se così non fosse potrebbe rappresentare un pericolo. Il mediocre, insomma, spiega il filosofo canadese, deve «giocare il gioco”.

AR: Caro Michele è proprio nel mondo anglosassone che la nostra proposta ha fatto centro ed è stata accolta molto bene. Ti metto qui di seguito alcuni link a interviste e opinioni in tema. Per quanto riguarda aziende che praticano qualcosa di simile ve ne sono tante. Dalla  Semco a Google, dove il ruolo delle gerarchie è molto ridotto, la pratica delle rotazioni dei ruoli molto incentivata e i suggerimenti dal basso o il lavoro a progetti propri dentro l’azienda i benvenuti. Se ci pensi il progresso scientifico funziona proprio cosi, con strategie bottom-up invece che top down… tutte le più grosse compagnie americane sono nate così (dalla Apple ad Amazon). In Europa invece è tutto il contrario. Bisogna rischiare, scommettere sull’improbabile e “andando a caso” spesso scopri cose che pensavi fossero impossibili, così come nuovi talenti. Il principio di Peter si può applicare non solo alle persone, ma anche alle idee, ai modelli, ecc. In fisica e biologia, peraltro, è ben noto che il rumore (ovvero un segnale completamente casuale) ha molto spesso un ruolo benefico, stimolando o stabilizzando dei processi che altrimenti non avrebbero luogo o non sarebbero altrettanto efficienti. Il Metodo Montecarlo d’altra parte funziona molto bene proprio in questa maniera e, da fisici/ingegneri, lo sappiamo bene!

SL: Davvero molto interessante. Peraltro, mi pare si superi una visione un pò ingenua e “muscolare” del merito.

MC: Credo che sia necessario chiarire bene per i nostri Lettori cosa vuol dire “promozione random o a caso” perchè come la meritocrazia ingenua ha i suoi rischi, anche la non-meritocrazia, o la meritocrazia a caso, potrebbe averne persino di peggiori. Promuovere “a caso” non mi pare esattamente essere quello che fanno Google e Facebook che, anzi, fanno a gara a prendere i migliori laureati delle migliori università, e li pagano anche milioni di dollari, già al primo stipendio. Pare peraltro che Mark Zuckenberg prenda tanto seriamente il “recruiting” dei migliori laureati, al punto che se ne occupa direttamente, conducendo le skype call di selezione. Qua in Italia gli stipendi da 200 mila euro, a leggere almeno i giornali, li danno magari a laureati non tanto brillanti, a 34 anni, purché fratelli di Ministri in carica, e forse non a caso… diffusa è comunque l’abitudine di usare le promozioni per propri tornaconti personali, per nepotismo, o per creare proprie cerchie di potere, in tutte le realtà, da pubbliche a private (una pratica denominata “Parental recruiting o job property” nel mondo anglosassone e che è ben sintetizzata in due articoli del 2011 sul Fatto Quotidiano e su Espresso dove “le giornaliste riportano fatti sconvolgenti: in Italia dalle Poste alle Ferrovie o alle banche private come Intesa San Paolo e Popolare di Milano i figli spesso scavalcano le trafile e passano avanti. Anche uno come Sergio Marchionne – da sempre a parole primo ambasciatore della meritocrazia nel luogo di lavoro – ha permesso che nella sua Fiat fino al 2006 ci fossero 636 borse di studio per figli di dipendenti “finalizzate all’assunzione”. …”. In questo senso, forse, sarebbe meglio “andare a caso”, invece che lasciarsi andare al nepotismo sfrenato. Ciò premesso, mi chiedo se una sana meritocrazia non abbia almeno il vantaggio di illudere i giovani che se lavorano sodo avranno una ricompensa. Se, insomma, si sparge la voce che si promuove “a caso”, non andranno tutti a pescare e godersi la vita invece di lavorare? E allora, tornando alla provocazione del canadese Deneault, non è che i mediocri stanno per prendere il potere o l’hanno già preso?

AR: Caro Michele nelle questioni che tu poni c’è un equivoco di fondo. Noi non diciamo che il merito non vada premiato, anzi va sicuramente fatto, ma con un incremento salariale, maggior tempo libero o con altri benefits. Noi diciamo che la promozione non va intesa come un cambio di ruolo. Bisogna premiare chi fa bene il proprio lavoro ma non cambiandogli il ruolo in cui lui o lei sa far meglio. Se devi sostituire il direttore di un ospedale con qualcuno del personale che hai all’interno è sicuramente sbagliato prendere il miglior chirurgo e metterlo a dirigere l’ospedale. Perché rischi un doppio danno, perdere il miglior chirurgo che dovrai sostituire con uno sicuramente peggiore e non sarai sicuro che lui farà al meglio il nuovo mestiere di direttore. Sarà sicuramente molto meglio pescare a caso, fra tutto il personale (ovviamente si possono anche richiedere dei requisiti minimi) che hai a disposizione. Se poi posso pescare dall’esterno allora, come dici tu, è meglio fare come fanno le migliori aziende al mondo, ossia cercare qualcuno che abbia ricoperto con successo lo stesso ruolo. Ma questa è una questione diversa: non stai utilizzando il personale all’interno della tua organizzazione. E comunque anche qui spesso il migliore in assoluto non esiste, perché le sue prestazioni dipendono anche dalle relazioni con l’ambiente in cui si trova. Un attaccante che ha giocato benissimo in una squadra, può giocare molto peggio in un’altra dove non interagisce bene con i suoi compagni. Ovviamente poi i nostri risultati hanno un valore statistico, cioè quello che abbiamo trovato funziona se fai una media su tante realizzazioni; nel singolo caso può sicuramente fallire. Spero di esser stato chiaro.

MC: Chiarissimo! Certamente è molto importante capire il vostro messaggio, liberandolo da possibili equivoci, e quindi abbiate pazienza se, con spirito critico, faccio domande al limite del naif. Ma, entrando più nel merito, immagino che, anche nel vostro sistema, la promozione al “nuovo incarico” di Direttore dell’Ospedale, per restare nell’esempio, comporti un incremento di stipendio, di status, di potere ecc. Pertanto a tale posizione, ragionevolmente, ambiranno molte persone. Se la scelta del promosso è puramente casuale ci vuole allora un notaio, magari controllato da un altro notaio, ad estrarre il nome del promosso. In effetti, un serio e controllato sorteggio, di fatto, consente di diminuire il peso dei “mediocri che hanno imparato il gioco”, come dice Deneault, e che magari stanno sempre vicini ai potenti, adulandoli, e asservendosi ad essi in tutto e per tutto, al solo fine i raggiungere una posizione apicale, e poi magari disconoscere i propri maestri e anche affossarli… D’altra parte, dal punto di vista dell’incentivo a lavorare bene, mi pare che hai chiarito che questo, nel vostro modello, consiste nella possibilità di avere un aumento di stipendio, senza salire la gerarchia. I mediocri di Deneault però qui rientrano in gioco, perché non escludono nemmeno questa forma di incentivo, e saranno lì a tramare in modo che i “criteri con cui si misura l’efficienza” siano stabiliti dai loro capi in modo consono alle proprie performance. Ben attenti ad evitare ogni critica nei confronti perlomeno di chi distribuisce gli “incentivi” e gli aumenti di stipendio. E questo bisognerebbe evitarlo. Non ci sarà forse una ragione “evoluzionistica” per cui i “mediocri” di Deneault vincono il gioco? Non saranno forse i più adatti? Questi miei spunti e riflessioni, li trovate ingenui?

AP: Riprendendo quanto già detto da Andrea, lo scopo principale del nostro lavoro sul principio di Peter è stato quello di mettere in guardia le organizzazioni gerarchiche dai rischi connessi ad un utilizzo “ingenuo” del concetto di meritocrazia applicato alle promozioni, almeno in quei tipi di organizzazioni in cui la mansione che si svolge al livello successivo nella scala gerarchica è abbastanza diverso da quello che si svolgeva al livello precedente. Quest’ultima è quella che chiamiamo “ipotesi di Peter”. E’ solo in questi casi che le strategie di promozione casuale, unite a un opportuno sistema di incentivi, fanno sentire i loro effetti benefici su due fronti: da un lato, come già è stato detto, selezionando a caso i dipendenti da promuovere, tali strategie evitano che i “migliori” vengano premiati cambiando loro le mansioni e rischiando di perdere i vantaggi legati alla loro competenza iniziale (piuttosto, bisogna premiarli con aumenti di stipendio o altri incentivi, ma non promuovendoli); dall’altro, come già notato anche da Michele, le strategie casuali evitano i nepotismi e smontano le strategie dei “mediocri”, che tramano all’ombra dei potenti per ottenerne vantaggi: tutti i dipendenti avranno infatti la stessa probabilità di essere promossi, ovviamente se il “notaio” farà bene il proprio dovere (ma è molto più facile assicurarsi di questo che non evitare le infiltrazioni dei mediocri nel sistema vigilando sui dirigenti).

E’ chiaro che per accettare questo nuovo quadro concettuale occorre attuare una rivoluzione copernicana nel nostro modo di intendere le promozioni: come osservava giustamente Michele, nel nostro sistema le promozioni vengono quasi sempre associate, oltre che ad un aumento di stipendio, anche ad un aumento di potere e ad uno status più elevato, che in teoria dovrebbero essere controbilanciati da un incremento di responsabilità. Di fatto però, in molti casi, come osserva lo stesso Michele, questo aumento di responsabilità è più teorico che pratico. Dunque perché non accettare il fatto che una promozione vada considerata solo come un cambiamento di ruolo, spesso nella direzione di mansioni meno specialistiche e più dirigenziali, sganciandola però da qualunque altro elemento che la renda appetibile e dunque ambita dai “migliori”? L’azienda brasiliana Semco, citata da Andrea, ha fatto proprio questo: nei piccoli gruppi di lavoro in cui è organizzata, il capo spesso guadagna meno del suo diretto sottoposto, e non gode di nessuno status privilegiato. In queste condizioni, ogni dipendente occupa la posizione in cui è in grado di espletare meglio il proprio lavoro e se lavora bene viene premiato con un aumento di stipendio, senza alcun cambiamento di ruolo. E quando il capo va in pensione chi prende il suo posto? Non sappiamo cosa fa la Semco in questi casi, ma è chiaro che noi le suggeriremmo di scegliere a sorte tra tutti i dipendenti. Così, se siamo fortunati, potremmo magari scoprire che il neo-promosso possiede abilità nascoste di tipo organizzativo/manageriale che con molta difficoltà sarebbero emerse in un regime di promozioni meritocratico.

Peraltro, nel nostro paper su Physica A del 2011, abbiamo mostrato che l’efficacia delle promozioni casuali, in presenza dell’ipotesi di Peter, non si riscontra solo nelle organizzazioni piramidali ma anche in organizzazioni topologicamente più complesse, fatte di gruppi di lavoro modulari disposti lungo i rami di un albero gerarchico. In quel paper abbiamo effettuato nuove simulazioni introducendo nel modello caratteristiche più realistiche (competenze degli agenti variabili con l’età, aumento non-lineare della responsabilità con il livello gerarchico, ipotesi mista per la trasmissione delle competenze da un livello al successivo, organizzazioni di dimensione variabile nel tempo) e confrontando volta per volta le efficienze relative ottenute nei due casi (struttura piramidale e struttura modulare) per una organizza- zione tipica di medie dimensioni. In tutte le situazioni considerate, i vantaggi offerti dall’introduzione anche di basse percentuali di promozioni casuali continuavano a rimanere sostanzialmente invariati. Allo stesso tempo, però, i risultati mostravano chiaramente come, indipendentemente dalla topologia dell’azienda, l’adozione di una strategia di promozioni completamente casuali produce effetti positivi sull’efficienza globale solo se si ha a che fare con organizzazioni con almeno il 50% di posizioni che obbediscono all’ipotesi di Peter, mentre negli altri casi promuovere i membri migliori continua ad essere una strategia vincente. Questo ci conferma definitivamente che l’introduzione di promozioni casuali non è sempre necessariamente la mossa migliore, ma certamente lo diventa quando l’ipotesi di Peter risulta predominante in un’azienda.

SL: Per Hayek (The Constitution of Liberty, University of Chicago Press, 1960, p. 87) la multiformità e la variabilità dei meriti personali ne rende impossibile ogni valutazione obiettiva. In questa visione, l’unico “giudice” dei meriti è, di fatto, il mercato. Sul fronte opposto, Rawls (A Theory of Justicetrad.it. S. Maffettone, Una teoria della giustizia, Milano, Feltrinelli, 1982) mette al centro del discorso sul merito la teoria della giustizia, per cui ogni disparità economico-sociale è giusta solo se arreca il maggior beneficio possibile alla parte più svantaggiata della società. E il merito, dipendendo da quella che Rawls definisce la “lotteria della natura”, non costituisce quindi il principio su cui fondare una società ordinata.  In tempi più recenti, si sono affermate teorie “miste” che tendono a contemperare il merito con criteri di giustizia. In tal senso, ad esempio, Miller (Principles of Social Justice, Cambridge, Harvard University Press, 1999, p. 140 s.), con la sua teoria della ricompensa, secondo cui la distribuzione di premi e vantaggi economici e sociali deve seguire uno schema giusto fondato sul principio di proporzionalità (compensi uguali a prestazioni uguali; compensi superiori a fronte di prestazioni superiori). A quali di queste visioni ritenete che il vostro modello, e il concetto di merito che indirettamente ne emerge, si avvicini maggiormente? 

AP: Per rispondere a questa domanda occorrerebbe ovviamente approfondire meglio le diverse posizioni citate. Quello che possiamo dire è che il nostro modello non entra nella spinosa questione della definizione di “merito”. Come docenti universitari, e Michele lo sa bene, abbiamo recentemente toccato con mano il fallimento dell’Anvur, l’agenzia che avrebbe dovuto enunciare dei criteri obiettivi per la valutazione del merito e che invece ha obbligato migliaia di docenti e ricercatori a sottrarre tempo al loro lavoro per annegare nei meandri numerologici della VQR. Ma è anche vero che quello della valutazione del merito nella ricerca scientifica è un ambito particolarmente difficile da quantificare (conta di più una sola pubblicazione su Nature in cinque anni, o venti pubblicazioni su riviste minori nello stesso intervallo di tempo? e come confrontare i settori bibliometrici con quelli non bibliometrici?). Diverso è il caso di una azienda, dove la performance dei dipendenti può di solito essere valutata quantitativamente guardando ai risultati raggiunti in termini di budget, o di introiti, o di efficienza del sistema. E’ per questo che abbiamo preferito concentrarci su organizzazioni gerarchiche di tipo aziendale, dando per scontata la possibilità di identificare i più meritevoli (quelli che abbiamo chiamato i “migliori”) e studiando le conseguenze della loro promozione indiscriminata sotto l’ipotesi di Peter, con le conseguenze nefaste che abbiamo già spiegato. Dunque, per quanto ci riguarda, e come abbiamo detto più volte, non si tratta tanto di definire cos’è il merito, ma di capire come affrontare e gestire i rischi che derivano da una applicazione “ingenua” del criterio meritocratico.

SL: Condivido questo approccio estremamente pragmatico al tema. E soprattutto ho molto apprezzato la vostra visione “eretica” e, senza dubbio, non ingenua. Anche io sarei tentato di dire che ormai, specie in Italia, l’unico modo per evitare nepotismo e mediocrazia sia il caso, il sorteggio. Ma non mi piace arrendermi. Al di là di ogni filosofica riflessione sulle capacità selettive del mercato o sul concetto di giustizia, bisogna in effetti puntare sull’organizzazione del lavoro, in azienda e nella pubblica amministrazione. In quest’ottica, molto interessante mi è parso il caso dell’azienda brasiliana Semco, che ha attuato un modello “raffinato” di gerarchia, fondato sulla competenza, sul saper fare un determinato mestiere, sulla rotazione degli incarichi, e non - consentitemi la battuta - sulla pianta di ficus in ufficio, spesso simbolo dell’italica gerarchia. Un esempio concreto, che segue un approccio innovativo, sì, ma basato su ragionevolezza e proporzionalità. Dove il “sottoposto” (nella scala gerarchica) guadagna più del proprio “capo” perché in possesso di competenze specialistiche evidentemente maggiormente “stimate” sul mercato delle professioni. E dove le competenze manageriali non necessariamente si legano ad una visione quasi sacrale del potere. Penso, mentre scrivo, a quante resistenze incontrerebbero simili cambiamenti in un mondo come quello della pubblica amministrazione.

MC: L’altro giorno ho avuto occasione di partecipare ad una giornata di un importante master di management, e un esponente di un importante studio di head hunting ha esposto la sua teoria: non è tanto un problema di meritocrazia che abbiamo in Italia, perché “ingiustizie” ce ne sono e ce ne saranno sempre. Ovunque. Anche nel mondo anglosassone o in USA. Il problema è piuttosto di percentuale, ovvero la forte tolleranza (in %) di incompetenza rispetto alle posizioni ricoperte (ha anche fatto una matrice posizione ricoperta / potenzialità di crescita). È il tasso di tolleranza che uccide in Italia e che è diverso dagli altri paesi. Ora, la conclusione è molto semplice. O lavori secondo le regole del gioco (cosa NON facile) oppure cambi azienda. O paese………

SL: Vorrei concludere auspicando che questo dialogo possa continuare, aprendosi anche ad altri interventi, di studiosi di altre discipline o di “semplici” appassionati al tema del merito. To be continued …  

Per ulteriori informazioni sul lavoro dei Proff. Rapisarda e Pluchino, si veda:

http://www2.dfa.unict.it/home/rapisarda/

http://www2.dfa.unict.it/home/pluchino/

Bibliografia essenziale

Sul nepotismo in Italia, da Il Fatto Quotidiano:

http://www.ilfattoquotidiano.it/2011/07/01/litalia-peggiore-quella-del-nepotismo/134399/

e su l’Espresso:

http://web.uniroma2.it/modules.php?name=RassegnaStampa&op=visArt&id=26541

Sulla Semco:

G

Editorial del Financial Times: http://podcast.ft.com/2010/11/17/dont-give-hiring-a-moments-notice/

Articolo su The Guardian: https://www.theguardian.com/education/2010/nov/01/random-promotion-research

Editorial del New Scientist: https://www.newscientist.com/article/mg20427392.600-why-your-boss-is-incompetent/?full=true

Articolo del NYT:

http://www.nytimes.com/projects/magazine/ideas/2009/#r-2

 

 30 gennaio 2017

 

 

Email

Un approccio integrato alla sostenibilità delle infrastrutture idriche (di Angelo Facchini, Antonio Scala, Nicola Lattanzi, Guido Caldarelli, Giovanni Liberatore, Armando Di Nardo)

Un approccio integrato alla sostenibilità delle infrastrutture idriche

di Angelo Facchini1,2, Antonio Scala1,2, Nicola Lattanzi3, Guido Caldarelli1,2, Giovanni Liberatore4, Armando Di Nardo5

1 IMTAlti Studi Lucca

2 CNRIstituto dei Sistemi Complessi

3 - Università di Pisa

4 - Università di Firenze

5 - Seconda Università degli Studi di Napoli

1. Introduzione

Mentre gli effetti del cambiamento climatico diventano sempre più visibili, le risorse (acqua, energia, materiali) sono scarse e l’ambiente non può più essere considerato un serbatoio infinito per le nostre esigenze e per i nostri rifiuti. Negli ultimi tre decenni stiamo assistendo ad un aumento della pressione antropica sull’ambiente, causata da diversi fattori come la crescita della popolazione sia rurale che urbana o il rapido sviluppo dei paesi emergenti. Infatti, secondo le Nazioni Unite [1] e il McKinsey Global Institute [2], con l’incremento della popolazione urbana vi è la necessità urgente di far fronte a una sfida multiforme che coinvolge l’ambiente, l’uso efficiente delle risorse e lo sviluppo di strategie e politiche per rendere più sostenibile il nostro futuro.

Le infrastrutture, in particolare quelle che si riferiscono alla distribuzione di servizi strategici come acqua ed energia, saranno le più esposte ai profondi cambiamenti attesi nei prossimi anni.

L’acqua è una risorsa fondamentale per le persone e per i sistemi ad essa collegati, come l’energia, i rifiuti, e la produzione alimentare, ma risulta in continuo calo in tutto il mondo a causa di fattori come il cambiamento climatico, la competizione per gli usi, la crescita della popolazione, l’urbanizzazione, le attività agricole e l’industrializzazione [3].

Per queste ragioni, la sostenibilità del “sistema acqua” è diventata uno dei temi principali nelle agende di politici e decision makers [4].

Risulta quindi di importanza prioritaria affrontarne la sostenibilità sia dal punto di vista di un uso razionale ed efficiente della risorsa, sia dal punto di vista del mantenimento di elevati standard qualitativi di servizio. Di fronte a questo scenario, l’industria dell’acqua e delle infrastrutture idriche richiede pertanto una profonda trasformazione in termini di prelievo, resilienza ed affidabilità.

Negli anni passati, i ricercatori hanno risposto a questa esigenza proponendo una serie di modelli e indicatori per caratterizzare le reti idriche. Per esempio, Tabesh [5] ha proposto un modello utilizzando misure idrauliche, fisiche, ed empiriche, mentre Pirlata [6] ha modellato un sistema di distribuzione sostenibile attraverso un compromesso tra affidabilità, il ciclo di vita, costi, ed emissioni di CO2; Li [7] ha definito la sostenibilità nei sistemi di acqua come un equilibrio tra l’efficienza della rete e la resilienza. Altri ricercatori stanno convergendo verso un modello integrato per la progettazione delle infrastrutture in convergenza con le reti di energia e telecomunicazione, introducendo metodi di analisi e misura della sostenibilità già sperimentati per altri tipi di reti infrastrutturali [8].

L’interconnessione e l’interdipendenza delle reti, sempre maggiore grazie allo sviluppo delle tecnologie dell’informazione e della comunicazione, spinge nella direzione di una visione integrata dell’infrastruttura idrica; una visione che permetta di considerare tutte le connessioni del sistema e ne consenta una caratterizzazione sistemica. Tale aspetto è poco trattato in letteratura; perciò nel presente contributo per Il Merito. Pratica per lo sviluppo” si intende affrontare il tema, descrivendo un approccio alla sostenibilità delle reti idriche basato sulla teoria dei sistemi complessi, l’asset management e il bilancio di sostenibilità.

2. Un approccio multidisciplinare alla gestione sostenibile delle infrastrutture idriche

Nel presente studio si propone un approccio olistico - Acque 2.0 - che vuole sfruttare il potenziale di sostenibilità delle infrastrutture idriche attraverso i seguenti elementi:

  1. Infrastrutture intelligenti, consentendo una descrizione in tempo reale dello stato delle reti e dei suoi carichi.

  2. Sistemi complessi, tra cui l’utilizzo di algoritmi e visioni innovativi che consentano il miglioramento della qualità del servizio e della resilienza;

  3. Bilancio integrato di sostenibilità.

Infrastrutture intelligenti: nel campo dei sistemi di distribuzione dell’energia elettrica, le reti intelligenti hanno rappresentato una rivoluzione sia dal punto di vista degli utenti (con l’installazione dei contatori elettronici), sia dal punto di vista del distributore (automazione delle stazioni di media e alta tensione). I vantaggi della digitalizzazione delle reti di distribuzione sono ben evidenziati dal successo ottenuto da Enel, che negli ultimi due decenni ha installato in Italia circa 40 milioni di contatori elettronici che hanno consentito un netto miglioramento della gestione della rete e dell’efficienza operativa, garantendo un’alta qualità del servizio per i clienti pur mantenendo i costi di gestione sostenibili [9].

Negli ultimi anni, sia i regolatori sia le utility idriche stanno seguendo la stessa strada [10], in Italia e in campo internazionale. Di particolare interesse è il caso delle utility australiane, che, trovandosi ad operare in costante situazione di scarsità stanno digitalizzando la propria rete coinvolgendo gli utenti finali [10]. In generale la digitalizzazione della gestione dei servizi idrici offre i seguenti vantaggi:

  1. Riduzione delle perdite tecniche e amministrative

  2. Miglioramento delle capacità di previsione per la domanda di punta

  3. Riduzione dei costi associati alla lettura del contatore e dei costi operativi.

  4. Miglioramento dei tempi di risposta in caso di guasti.

  5. Monitoraggio in real-time della qualità del servizio (ad esempio, nel caso di inquinanti).

  6. Miglioramento della qualità dei servizi e la possibilità di sviluppare nuovi modelli di business.

La lettura e l’immagazzinamento di dati relativi ai consumi permettono inoltre l’impiego di metodi di analisi e algoritmi basati su sistemi complessi e big data.

Sistemi complessi e reti complesse: i sistemi complessi e i metodi non lineari sono ormai ben consolidati e ampiamente descritti in una ricca letteratura [11]. Il fatto che sistemi apparentemente semplici e deterministici possano mostrare comportamenti temporali complicati in presenza di non linearità ha influenzato il pensiero e l’intuizione in molti campi: i metodi non lineari sono stati infatti applicati con successo a una vasta gamma di fenomeni naturali, fornendo spunti e soluzioni semplici e originali in diverse discipline, e permettendo ai ricercatori di caratterizzare con successo una vasta gamma di fenomeni meccanici, economici, biofisici, biologici ed ecologici (si rinvia ad Abarbanel [12] e Kantz [13] per una vasta descrizione dei metodi e delle loro applicazioni).

Per quanto riguarda la struttura della loro rete di relazioni, i sistemi complessi sono stati caratterizzati con successo attraverso l’utilizzo delle metodologie sviluppate nelle reti complesse. Un sistema complesso si caratterizza infatti per l’essere formato da più componenti tra loro connesse, e lo schema di queste connessioni può essere rappresentato da oggetti matematici denominati grafi.

Lo studio delle reti complesse ha mostrato grande efficacia come strumento valido e versatile per l’analisi sia di reti infrastrutturali (ad esempio, acqua, luce, gas, trasporti, etc.), che di reti “soft” quali prestiti bancari, flussi commerciali e d’informazione; reti che, pur essendo tra loro molto diverse, condividono una struttura (topologia) [14,15,16] e sono in grado di descrivere tali sistemi eterogenei permettendo di:

  1. Ottimizzare la rete rispetto a molteplici funzioni di costo.

  2. Misurare la stabilità di rete rispetto a guasti o atti di sabotaggio [17].

  3. Misurare l’impatto dei guasti sulla popolazione.

Per quanto riguarda lo studio delle infrastrutture idriche, tramite l’analisi topologica si possono analizzare le proprietà della rete considerando le sue relazioni di adiacenza (misurando chi è collegato a chi). In seguito, possono poi applicarsi un insieme di tecniche di analisi avanzate volte a studiare la connettività del sistema e per comprenderne la robustezza e la suscettibilità al danno delle sue componenti. In questa fase è possibile modellare i sistemi di distribuzione idrica sono come reti pesate e orientate quantificandone le proprietà sia a livello locale (singoli componenti), sia a livello globale (sistema idrico). In questo modo è possibile definire metriche complesse che consentono l’identificazione dei nodi e delle connessioni maggiormente vulnerabili rispetto a guasti e attacchi intenzionali [17]. La rilevanza di questo approccio è stata sperimentata attraverso una serie di casi di studio sui sistemi idrici locali negli Stati Uniti e nel Regno Unito [18] e in Italia [19], mentre per quanto riguarda il rischio legato ai terremoti l’analisi di vulnerabilità è stata applicata con successo per la valutazione dell'affidabilità sismica delle infrastrutture [20]

Sulla base della letteratura, proponiamo dunque un approccio basato su reti complesse che prevede i seguenti passaggi:

  1. Caratterizzazione sotto forma di grafo pesato della rete di distribuzione.

  2. Definizione di una serie di funzioni di costo (e.g. uso della risorsa, consumo di elettricità, qualità del servizio)., resilienza);

  3. Identificazione dei nodi critici sulla base delle misure associate alla topologia della rete.

  4. Definizione di un modello ottimale di rete.

  5. Valutazione del rischio complessivo, tenendo conto delle interazioni tra i singoli rischi e in base al confronto tra il modello attuale e quello ottimale.

  6. Realizzazione di un algoritmo di manutenzione predittiva basata su dati storici e stato attuale della rete.

I risultati dell’analisi di rete hanno un doppio scopo: il primo è quello di caratterizzare, attraverso opportune metriche e modelli, la rete idrica, integrando opzioni e metriche avanzate mutuate dalle reti complesse in software commerciali come EPANET (http://epanet.de/); il secondo è quello di fornire una serie di Key Performance Indicators al bilancio integrato di sostenibilità (ulteriore componente dell’approccio Acque 2.0).

2.1. Bilancio integrato di sostenibilità

Valutare la sostenibilità significa riferirsi ai principi dello sviluppo sostenibile, scolpiti a suo tempo dalla Commissione Brundtland nel rapporto “Our common future” del 1987 [21], ulteriormente ampliati nel corso del vertice di Rio del 1992 e, infine, ribaditi durante i vertici mondiali del 2002 e del 2005. Lo sviluppo sostenibile è descritto come “lo sviluppo che soddisfa i bisogni del presente senza compromettere la capacità delle generazioni future di soddisfare i propri bisogni”, e si basa su due concetti chiave descritti da Daly [22]:

  1. Non consumare risorse a un tasso superiore alla loro capacità di rigenerazione.

  2. Non produrre rifiuti a un tasso superiore alla capacità dell’ambiente di smaltirli.

Negli ultimi tre decenni, la scienza della sostenibilità si è notevolmente evoluta sviluppando nuove conoscenze e un nuovo punto di vista sugli ecosistemi e sui sistemi socio-economici [22-25].

La gestione dell’acqua è uno dei temi dell’Agenda 21, e il tema delle acque urbane è stato al centro di un importante dibattito riguardante la nuova agenda urbana discussa da UN-Habitat durante la conferenza Habitat III di Quito (Ottobre 2016).

Una prima definizione di sostenibilità delle acque urbane può essere trovata in Ludin [26]: “un sistema idrico urbano sostenibile è quello che nel lungo periodo è in grado di fornire i servizi richiesti salvaguardando la risorsa, l’ambiente, e la salute umana”; in questo senso, come specificato da Larsen [27] il sistema idrico urbano comprende una serie di infrastrutture tra loro interconnesse deputate alla raccolta, al trattamento e alla distribuzione dell’acqua potabile, insieme alla gestione delle acque reflue e piovane.

Da questo punto di vista, il bilancio integrato di sostenibilità costituisce il mezzo più adatto per valutare la sostenibilità delle risorse e delle relative infrastrutture. Infatti, lo scopo primario di un rapporto integrato è quello di spiegare agli azionisti e ai portatori d’interesse come un’organizzazione si relaziona con l’ambiente che la circonda creando valore nel tempo, portando benefici a tutti gli attori interessati compresi i dipendenti, i clienti, i partner commerciali, e le comunità locali.

La tutela della risorsa acqua, in particolare, richiede un’azione unitaria ed integrata, non settoriale e isolata, e necessita di una prevenzione non limitata ai soli corpi idrici, ma che tenga in considerazione tutti i fenomeni e tutte le attività antropiche che direttamente o indirettamente incidono sulla qualità della risorsa.

In questo quadro, il Piano di tutela delle acque previsto dal d.lgs.n. 152/99 rappresenta una complessa operazione che prevede, in accordo con l’Autorità di bacino, le Province e gli Ambiti territoriali, l’elaborazione di programmi di rilevamento dei dati utili alla descrizione delle caratteristiche del bacino idrografico e alla valutazione dell’impatto antropico su di esso esercitato.

In definitiva, la protezione delle risorse richiede un'azione integrata, che tenga conto di tutti i fenomeni e di tutte le attività umane che, direttamente o indirettamente influiscono sulla qualità delle risorse idriche e dei servizi connessi.

Per questo motivo, il sistema usato per misurare la performance di sostenibilità dovrà essere in grado di perseguire degli obiettivi conoscitivi e organizzativi in linea con gli European Water Stewardship (EWS) standard (http://www.ewp.eu/):

  • assistere ed indirizzare nelle previsioni sugli scenari evolutivi dei fabbisogni idrici;

  • individuare i parametri specifici di analisi dell’impiego di acqua a livello locale;

  • indirizzare il processo decisionale verso la selezione di obiettivi e la costruzione di piani di indirizzo che massimizzino il grado di compliance con il quadro regolamentare e autorizzativo locale e nazionale;

  • comunicare agli stakeholder il comportamento strategico e l’attitudine alla creazione di valore dell’impresa (Reporting integrato) secondo gli standard IIRC (http://integratedreporting.org/).

    Per le aziende idriche e i loro stakeholder, ci aspettiamo che un sistema di misurazione così concepito possa portare i seguenti benefici:

  • capacità di individuare i più idonei criteri per la selezione e la raccolta di informazioni sensibili, utili per i decisori pubblici, stakeholders e investitori;

  • capacità di intervenire sugli aspetti davvero critici, identificati in ragione della loro rilevanza per l’ambiente;

  • capacità di valutare i progressi dell’azienda nella riduzione degli impatti ambientali e nella salvaguardia delle risorse naturali.

    3. Conclusioni

    Abbiamo delineato i tratti salienti di “Acque 2.0” un insieme di strumenti, algoritmi e metodi interdisciplinari alcuni già esistenti, altri da sviluppare ex novo - idoneo a sfruttare a pieno il potenziale di sostenibilità delle infrastrutture idriche. Abbiamo perciò adottato un approccio olistico, di sistema, perché, dovendo affrontare un tema complesso, si è consapevoli che “il tutto è maggiore della somma delle sue parti”. Abbiamo basato la nostra analisi sui sistemi complessi e sulle reti complesse, essendo questi metodi entrambi in grado di migliorare l'infrastruttura, diminuendo i costi operativi, e garantendo, a un tempo, un servizio di alta qualità.

    Come visto, l’analisi topologica delle reti appare infatti in grado di fornire una serie di misure affidabili con riferimento alla vulnerabilità delle reti e alla loro ottimizzazione, e nonché per la redazione del bilancio di sostenibilità.

    Adottare la complessità significa avere una visione integrata e di lunga durata; una visione che è in grado di trasformare l’infrastruttura rendendola moderna, efficiente: in grado di soddisfare le esigenze degli utenti, diminuendone l’impatto ambientale. Un tale processo di trasformazione implica infine una sinergia tra gli attori coinvolti: le utility, le autorità di regolazione, il mondo della ricerca, i cittadini.

    Riferimenti Bibliografici

  1. United Nations. World urbanization prospect, the 2014 revision. Technical report, 2014.

  2. McKinsey Global Institute. Resource revolution. Technical report, 2012.

  3. UNESCO. Water for a sustainable world. Technical report, 2015.

  4. N.Y Aydin, L. Mays, and T. Schmitt. Sustainability assessment of urban water distribution systems. Water Resour. Manage., 28:4373– 4384, 2014.

  5. M. Tabesh and H. Saber. A prioritization model for rehabilitation of water distribution networks using GIS. Water Resour. Manage., 26:225–241, 2012.

  6. K.R. Pirlata and S.T. Ariaratnam. Reliability based optimal design of water distribution networks considering life cycle components. Urban Water J., 9(5):305–316, 2012.

  7. Y. Li and Z.F. Yang. Quantifying the sustainability of water use systems: calculating the balance between network efficiency and resilience. Ecol. Model., 222:1771–1780, 2011.

  8.    R.J. Hansman, C. Magee, R. de Neufville, R. Robins, and D. Roos. Research agenda for an integrated approach to infrastructure planning, design and management. Int. J. of Critical Infrastructures, 2(2/3):146–159, 2006.

  9.    I. Onyeji, A Colta, I Papaioannou, and A Mengolini. Smart Grid projects in Europe: lessons learned and current developments. JRC, 2011.

  10. T R Gurung, R A Stewart, A K Sharma, and C D Beal. Smart meters for enhanced water supply network modelling and infrastructure planning. Resources, 90:34–50, 2014.

  11. S. Strogatz. Nonlinear dynamics and chaos, Second Edition. Westview Press, 2014.

  12. H.D.I. Abarbanel. Analysis of observed chaotic data. Springer, 1997.

  13. H. Kantz, T. Schreiber, and R. Hegger. Nonlinear Time Series Analysis. Cambridge University Press, 2005

  14. Gregorio D’Agostino and Antonio Scala. Networks of Networks: The Last Frontier of Complexity. Springer, 2014.

  15. G. Caldarelli. Scale free networks: complex webs in nature and technology. Cambridge University Press, 2007 



  16. A Reka, H Jeong, and AL Barabasi. Error and attack tolerance of complex networks. Nature, 406:378–382, 2000.

  17. M Barthelemy. Spatial networks. Physics Reports, pages 1–101, 2011.

  18. Alireza Yazdani and Paul Jeffrey. Applying network theory to quantify the redundancy and structural robustness of water distribution systems. Journal of Water Resources Planning and Management, 138(2):153–161, 2012

  19. A. Di Nardo, M. Di Natale, C. Giudicianni, R. Greco and G.F. Santonastaso. Water supply network partitioning based on weighted spectral clustering. In H Cherifi et al, editor, Complex Networks & Their Applications V, Studies in Computational Intelligence. Springer In- ternational Publishing, 2016

  20. M. Ángeles Serrano and Marián Boguñá. Clustering in complex networks. ii. percolation properties. Phys. Rev. E, 74:056115, Nov 2006

  21. United Nations World Commission on Environment and Development. Our Common Future. Oxford University press, 1987.

  22. R Costanza, H Daly, and JA Bartholomew. Goals, agenda, and policy recommendations for ecological economics. In R Costanza, editor, Ecological Economics, pages 1–21. Columbia University, 1991.

  23. DW Pearce and GD Atkinson. Capital theory and the measurement of sustainable development: an indicator of weak sustainability. Ecol. Economics, 8:103–108, 1993.

  24. R Costanza and BC Patten. Defining and predicting sustainability. Ecol. Economics, 15:193–196, 1995.

  25. A Schubert and I La ́ng. The literature aftermath of the brundtland report our common future. a scientometric study based on citations in science and social science journals. Environment, Development and Sustainability, 7:1–8, 2005.

  26. M Lundin. Assessment of the environmental sustainability of urban water systems. PhD thesis, Chalmers University of Technology, 1999.

  27. TA Larsen and W Gujer. The concept of sustainable urban water management. Water Science Technology, 35:3–10, 1997.

 

Email

Altri articoli...