*del Gruppo InfQ – Informatica Quantitativa – che raccoglie più di 170 ricercatori della comunità scientifica italiana attiva su aspetti di qualità (efficienza, resilienza, sostenibilità, prestazioni, affidabilità, disponibilità, scalabilità, qualità del servizio) di sistemi e servizi informatici: Elvio Amparore; Maria Carla Calzarossa; Emiliano Casalicchio; Vittorio Cortellessa; Vittoria De Nitto Personè; Daniele Di Pompeo; Antinisca Di Marco; Pierangelo Di Sanzo; Salvatore Distefano; Susanna Donatelli; Lorenzo Donatiello; Giuliana Franceschinis; Mauro Iacono; Luisa Massari; Antonio Puliafito;
Marco Scarpa; Giuseppe Serazzi; Matteo Sereno; Michele Tucci;
Salvatore Tucci.
Immaginiamo di essere nel 2121 a SmartPolis, una hypercity con trasporti senza conducente e veicoli a guida autonoma, moneta elettronica, case e uffici intelligenti, industrie e servizi autonomi e robotizzati, società e pubblica amministrazione completamente digitali. Immaginiamo un chirurgo che si appresta a raggiungere l’ospedale, ma è rimasto bloccato fuori dal suo autoveicolo autonomo con autenticazione a più fattori, e non riesce nemmeno a chiamare un taxi perché il suo smartphone non è in grado di riconoscere i comandi vocali. Dietro l’angolo, anche un’ambulanza autonoma si è appena fermata con un paziente a bordo. Le linee di comunicazione sono intasate dai tentativi di connessione dei tanti utenti che, come il chirurgo, provano e riprovano contemporaneamente ad accedere ai servizi di cui hanno bisogno per le piccole e grandi attività quotidiane, impossibilitati nell’aprire porte e finestre e dunque bloccati dentro o fuori abitazioni, locali o in un qualche mezzo di trasporto. Lo stesso accade anche all’interno degli ospedali e delle unità di pronto soccorso, dove le apparecchiature si sono arrestate, interrompendo quindi tutte le operazioni comprese quelle di telemedicina e telechirurgia per i pazienti in remoto.
Potrebbe sembrare uno scenario da guerra cibernetica o cyberterrorismo, frutto di un attacco informatico, o di malfunzionamento della rete, ma non è così. Nella piena sicurezza e regolarità delle comunicazioni, si è verificato un sovraccarico dei data center che ospitano i servizi di cui SmartPolis è permeata. Questo ha generato guasti e malfunzionamenti a catena, che i meccanismi di ripristino automatico non sono riusciti a gestire in quanto non hanno rilevato alcun problema alle infrastrutture digitali. Per fornire servizi sempre più intelligenti, adattivi e sofisticati, tali sistemi sono diventati molto complessi, interdipendenti e stratificati. Tuttavia, questo progresso non è stato accompagnato da opportune strategie di gestione e controllo durante il progetto, lo sviluppo, la messa in esercizio e le fasi operative e di manutenzione dei sistemi in questione. Così chi ne paga le conseguenze sono gli utenti, spesso anche a caro prezzo. È naturale che, in uno scenario del genere, si diffonda a SmartPolis un sentimento di sfiducia verso le tecnologie, e di conseguenza verso la scienza e il progresso che ne deriva, rendendo ancora più difficile la realizzazione di interventi in grado di evitare drammatiche conseguenze.
Fantascienza o futuro prossimo?
È questo uno scenario realistico? Sì, siamo testimoni più o meno consapevoli di episodi di cronaca recenti che mostrano quanto già dipendiamo dalle tecnologie digitali che, se non opportunamente progettate e dimensionate, possono causare disservizi. Basti pensare a quelli sperimentati da moltissimi cittadini durante i diversi click day per l’accesso a bonus e servizi pubblici (bonus Cura Italia Inps, bonus mobilità, e simili), o l’iscrizione al cashback di Stato, o il down di Google, per restare nell’ultimo periodo: in tutti questi casi, i problemi sono riconducibili ad aspetti di qualità che ancora oggi non hanno assunto il ruolo prioritario che spetta loro. Solitamente, difatti, al rallentare del proprio dispositivo, l’utente finale è portato ad ipotizzare un problema di connettività o di sicurezza.
Va invece considerato che applicazioni e servizi utilizzano tecnologie digitali eterogenee e stratificate, nelle quali non è sufficiente la meticolosa definizione, progettazione, e realizzazione dei singoli componenti hardware e/o software, ma è necessario che le interazioni tra questi vengano accuratamente individuate, modellate, studiate, valutate e pianificate per evitare l’insorgere di disservizi nel sistema complessivo.
Link all’articolo Originale tutti i diritti appartengono alla fonte.