Quando naque InterLex, e siamo giusto qui a festeggiarne i vent'anni, il termine
"cyberspace" era noto solo ad alcuni appassionati di fantascienza.
Oggi invece tutto è "cyber", e questo già dà la misura di quanta
acqua sia passata da allora sotto i ponti, in termini soprattutto concettuali
piuttosto che cronologici. Al giorno d'oggi, ad esempio, i militari considerano
il cyberspace come un "normale" dominio della conflittualità,
al pari di terra, mare, cielo e spazio; i governi adottano normative tecniche
per innalzare la sicurezza delle infrastrutture critiche contro le "minacce
cyber"; il mondo del lavoro si è popolato di "cyber-avvocati",
"cyber-psicologi" e "cyber-specialisti"; e i prodotti
commerciali più disparati sfruttano il termine "cyber", anche e
soprattutto a sproposito, per apparire moderni e accattivanti. Forse viviamo
nella fantascienza e non ce ne siamo accorti.
Se il cyber di oggi è il post-Internet, probabilmente il bello deve ancora
venire: e la rivoluzione che abbiamo vissuto e vi abbiamo raccontato su queste
colonne, quella che ci ha portato dl mondo "prima-di-Internet" al
mondo "dopo-Internet", probabilmente impallidirà rispetto a quella
che stiamo per vivere e che ci porterà al mondo degli oggetti connessi, alla
cosiddetta "Internet delle cose" o, meglio, la "Internet di tutte
le cose". Quello sì che sarà il definitivo spazio cibernetico. E se
finora ci lamentavamo di quanto (troppo) rapidamente Internet fosse piombata
nelle nostre vite e nella società, senza dare a quest'ultima i tempi per
sviluppare una corretta maturazione culturale del fenomeno, con l'Internet delle
cose (per gli amici: IoT) la situazione sarà verosimilmente peggiore. Le stime
più ottimistiche parlano di un numero di dispositivi connessi, alla fine di
questo decennio, che sarà più del triplo del numero di abitanti sulla Terra,
con un traffico sulla Rete che si aggirerà sui 6 hexabyte al giorno (nota: un
hexabyte corrisponde ad un miliardo di gigabyte!), la maggior parte del quale
avverrà oltretutto fra macchine e non fra umani.
L'Internet delle cose è, e sempre più sarà, la naturale conseguenza dello
straordinario progresso tecnologico di questi ultimi anni, che ha reso
disponibili grandissime potenze di calcolo e di comunicazione a costi e con
ingombri sempre minori. Oggigiorno il mercato mette a disposizione di qualsiasi
progettista, non solo di sistemi informatici, chip che pur costando pochi
centesimi hanno una capacità elaborativa superiore a quella di un mainframe di
trent'anni fa, e consentono una connessione wireless a larga banda su tre o
quattro standard diversi: è chiaro che con queste premesse ce li ritroveremo
dovunque, dalle automobili ai tostapane, dalle lampadine agli spazzolini da
denti. Per farci cosa, non è ancora del tutto chiaro: ma costano così poco che
per il progettista vale la pena metterceli, poi si vedrà.
Ecco, è proprio questo approccio che darà lavoro alle prossime generazioni
di giuristi e avvocati. Non è infatti quasi mai una buona cosa inserire in un
prodotto una "feature", una caratteristica peculiare, solo perché
esiste la possibilità tecnica di mettercela, senza domandarsi a cosa potrebbe
realmente servire. Di norma si dovrebbe ragionare al contrario: identificando
un'esigenza da soddisfare, e disegnando un prodotto che vada a colmare
quell'esigenza. Tanto più che con la serrata corsa alla commercializzazione, in
nome del famigerato "time to market", la maggior parte dei prodotti
"smart" non sono adeguatamente progettati né collaudati a fondo,
perché farlo costerebbe troppo e ne rallenterebbe lo sviluppo. D'altronde in
questi ultimi decenni l'industria informatica ci ha dimostrato che
l'acquirente-utente può benissimo essere considerato il beta-tester del
prodotto: intanto lo produciamo alla bell'e meglio e glielo vendiamo così
com'è, poi man mano che si trovano i difetti li correggiamo, come si dice,
"in aftermarket". Un po' scellerato, ma ci abbiamo fatto l'abitudine.
Peccato che questo approccio non funzionerà con l'Internet degli oggetti, dove
le conseguenze negative non si fermeranno al solo piano logico ma avranno
ripercussioni dirette sul mondo fisico. Con responsabilità ancora tutte da
comprendere, ammesso che ci sia tempo di farlo.
In questi ultimi tempi si parla molto di automobili a guida autonoma, e
qualcuno ha già iniziato a porsi il problema dei risvolti etici (e soprattutto
delle conseguenti responsabilità civili e penali) delle azioni intraprese
automaticamente dal software di autopilotaggio in casi critici, ad esempio
qualora fosse necessario per l'auto dover scegliere il "danno minore".
Ma ci sono molti altri casi, anche se meno eclatanti, in cui un'incauta
automazione potrebbe portare conseguenze spiacevoli con annessi profili di
responsabilità poco chiari. Prendiamo ad esempio una smart TV, ossia un
televisore connesso ad Internet, oggetto oramai abbastanza comune anche nelle
nostre case. È preoccupante il fatto che uno dei principali produttori, ormai
un anno fa, abbia ufficialmente avvisato la propria clientela di fare attenzione
a non parlare di argomenti riservati davanti ad uno dei suoi modelli dotati di
telecamera, perché non è possibile garantire l'assoluta riservatezza di quello
che viene detto. In altre parole, il nostro televisore potrebbe a nostra
insaputa riprendere audio e video di quello che avviene nelle nostre case ed
inviarlo a chissà chi, e nessuno può impedirlo! E se io ricevessi un danno
conseguente a questa intrusione nella mia vita privata, chi ne sarebbe
responsabile? E se il mio frigorifero, connesso ad Internet, per un'errata
programmazione o un'intrusione, mi mandasse a male il prezioso carico di pesce
per la mia festa di compleanno? E se il mio aspirapolvere, preda degli hacker,
mi sporcasse casa anziché pulirla perché non ho pagato il riscatto in bitcoin?
Più seriamente. A furia di parlare di cyberspace, o "ciberspazio"
se vogliamo usare il termine correttamente italianizzato, non ci rendiamo conto
che quello che viviamo non è un videogioco, dove non si muore mai e possiamo
ritentare la missione finché non ci riusciamo. Il ciberspazio nel quale ci
apprestiamo a vivere la nostra vita di tutti i giorni non è una simulazione
virtuale, dove al massimo perdiamo qualche file. Il "nostro"
ciberspazio è fatto oggi di reti intricate che collegano oggetti fisici da cui
dipende il funzionamento materiale delle nostre infrastrutture: semafori,
lampioni, controlli industriali, scambi ferroviari, saracinesche di acquedotti,
impianti di generazione e trasporto dell'energia... A questi si aggiungeranno a
breve sensori di traffico, contatori della luce, automatismi casalinghi, veicoli
"intelligenti", elettrodomestici, dispositivi personali indossabili,
dispositivi medici impiantati, e chi più ne ha più ne metta. Un mondo fatto di
sensori ed attuatori che si parlano in rete, tutti attorno a noi, e condizionano
direttamente o indirettamente il funzionamento della nostra società e delle
nostre vite: il mondo ciber-fisico (o cyber-physical come dicono
gli inglesi), nel quale se qualcosa va storto qualcuno potrebbe anche rimetterci
la pelle. Un mondo che sta arrivando forse troppo in fretta, spinto dalle
logiche del mercato e del business che fanno talvolta trascurare la prudenza:
tanto, "cosa potrà mai andare storto?"
È spiacevole, ma certi ragionamenti vanno fatti. E vanno fatti prima che le
cose accadano, perché poi è troppo tardi. Si chiama "analisi del
rischio", e serve a consentire di scegliere consapevolmente il livello di
danni che siamo disposti ad accettare a fronte dei vantaggi di una determinata
situazione e dei soldi che siamo disposti a spendere per evitare eventi troppo
spiacevoli. Perché ovviamente la sicurezza costa, e comunque nulla può essere
reso perfettamente sicuro: così la scelta importante da fare è quella di dove
fermarsi, ed è una scelta che deve essere fatta in modo razionale e
consapevole.
Quando si progetta qualcosa, non lo si può fare a prova di tutto: occorre
stabilire i limiti di esercizio, ed accettare poi il rischio che tali limiti
possano essere superati, con tutti gli effetti del caso. Ad esempio, non si può
fare un palazzo resistente a qualsiasi terremoto: occorre stabilire un
limite, accettando che qualora tale limite venisse superato si andrebbe incontro
ad una catastrofe. Questo limite non si sceglie "con la pancia" ma si
identifica oggettivamente e razionalmente tenendo in conto le statistiche locali
di sismicità, la criticità dell'attività svolta nel sito, il costo della
costruzione antisismica, e tanti altri fattori; e pesando poi il tutto mediante
un adeguato fattore di sicurezza che tenga conto dell'imponderabile. Dopodiché
si fanno i calcoli di quanti morti si verificheranno in caso di superamento del
limite e si decide se la cifra è accettabile o no, sapendo che tale valore si
può ridurre ma non azzerare. Un progettista che segue questo processo sino in
fondo, basandosi su dati ufficiali e indicazioni che hanno quantomeno il
consenso della comunità scientifica di riferimento (se non sono addirittura
imposti per legge) non ha ovviamente colpa in caso di disastri esorbitanti i
parametri di riferimento assunti nel progetto.
Ecco. Non so se qualcuno si è ancora posto la domanda di quanti morti saremo
disposti ad accettare per incidenti conseguenti ai malfunzionamenti
dell'Internet delle cose, dalle automobili a guida autonoma alle città
intelligenti, ma forse è il caso di pensarci adesso e darci delle regole prima
che ci vengano imposte dai fatti.
* Esperto di sicurezza cibernetica
dell'Agenzia per l'Italia Digitale per lo sviluppo del CERT-PA e componente il
Permanent Stakeholders' Group dell'Agenzia dell'Unione Europea per la sicurezza
delle reti e dell'informazione (ENISA)
|