Grazie all’intelligenza artificiale i big data diventeranno consapevoli, autonomi e in grado di autogovernarsi. Una rivoluzione che avrà molteplici conseguenze
Machine learning, internet delle cose ed evoluzione del digitale sembrano essere le tematiche più interessanti del 2018 tech. Ma quali sono le tendenze dominanti che già stanno emergendo all’interno delle varie branche dell’informatica? Ne parlano alcuni protagonisti del settore.
[auth href=”http://www.worldexcellence.it/registrazione/” text=”Per leggere l’intero articolo devi essere un utente registrato.
Clicca qui per registrarti gratis adesso o esegui il login per continuare.”]Dati, la rivoluzione dell’intelligenza artificiale. Partiamo dai dati, che stanno subendo una trasformazione radicale. Anzi, una rivoluzione copernicana. Nella previsione di Mark Bregman, senior vice president e chief technology officer di NetApp, si parla apertamente di dati che «diventano autoconsapevoli». Oggi, suggerisce il manager, possiamo assistere a «processi che agiscono sul dato e determinano come viene trasferito, gestito e protetto. Ma cosa succederebbe «se, invece, fosse il dato a definire se stesso?», si chiede il vicepresidente della società specializzata in sistemi e servizi per agevolare l’archivio dei dati on premises e in cloud. La risposta parte da lontano. E suggerisce che, più si differenziano rispetto a oggi, più acquisiscono «una certa consapevolezza e autonomia». Questo trasforma anche il modo di gestirli. «I metadati», prosegue Bregman, «permetteranno ai dati di trasportarsi, classificarsi, analizzarsi e proteggersi. Autonomamente. I flussi fra dati, applicazioni ed elementi di archiviazione storage saranno mappati in tempo reale, così da garantire la disponibilità delle esatte informazioni di cui un utente ha bisogno nel momento esatto in cui ne ha esigenza. Questo introduce anche la capacità per i dati di autogovernarsi. Essi stessi determineranno chi ha diritto di accedervi, condividerli e servirsene. Ciò potrebbe avere implicazioni più ampie in tema di protezione dei dati esterni, privacy, governance e sovranità dei dati».
Paradossalmente, informazioni che si autogestiscono sono più controllabili alla fonte. Dice infatti Bregman: «Quando i dati sono autoconsapevoli, possono essere taggati in modo tale da controllare chi vi accede, quali informazioni rendere disponibili, a chi e quando farlo. Tutto questo, senza spreco di tempo e, potenzialmente, senza l’intervento dell’uomo, che potrebbe commettere errori nel processo di suddivisione e approvazione dei dati diffondendo informazioni riservate a soggetti non autorizzati».
Il manager di Netapp ha evidenziato altre quattro dinamiche che cambieranno la vita dei dati. A partire dalla nuova vocazione delle macchine virtuali, destinate a diventare rideshare, cioè utilizzate con la stessa logica del leasing, del car sharing o del car pooling. «Gestire i dati sarà più veloce e conveniente su macchine virtuali, distribuite su un’infrastruttura webscale, che su quelle reali». La scelta, dice Bregman, è simile a quella del consumatore che deve decidere «se acquistare un’automobile o utilizzare un servizio di rideshare come Uber o Lyft. Chi trasporta carichi pesanti ogni giorno, forse trova più logico acquistare un camion. Se invece si ha bisogno di un veicolo soltanto per un determinato periodo di tempo, potrebbe essere più pratico affittarlo. Ecco: lo stesso meccanismo interviene quando si deve optare per macchine reali o virtuali.
Il primo caso può essere costoso, ma è più indicato per chi ha carichi di lavoro consistenti e intensivi». Proprio come il camion. Mentre «dotarsi di una macchina virtuale in cloud per carichi di lavoro variabili è come una forma di leasing: gli utenti possono accedervi senza che sia di loro proprietà, e senza dover conoscerne i dettagli».
Importante anche l’evoluzione dai big agli huge data che, dice Bregman, «richiederà nuove architetture a stato solido». Spiega il manager: «Man mano che aumenta l’esigenza di analizzare enormi serie di dati, si presenta la necessità di trasferirli più vicino alla risorsa computazionale. Sarà la memoria persistente a rendere possibile un calcolo con una latenza ultra-bassa senza che si perdano dati. Proprio queste necessità di latenza finiranno per forzare le architetture software a cambiare e creare, per le imprese, nuove opportunità guidate dai dati. La tecnologia Flash ha rappresentato un cambiamento importantissimo nel settore; però, il software in esecuzione non è cambiato, semplicemente è diventato più veloce. In passato, la funzione principale dell’It era automatizzare e ottimizzare processi come ordini, fatture, contabilità dei clienti e altre attività. Oggi, è fondamentale per arricchire i rapporti con i clienti offrendo servizi sempre attivi, app mobili ed esperienze rich web. Il prossimo passo sarà monetizzare i dati raccolti attraverso vari sensori e dispositivi per creare nuove opportunità di business: è questo passaggio che richiederà nuove architetture applicative supportate da tecnologie come la memoria persistente».
Altro capitolo del 2018 dei dati, i meccanismi decentrati, che secondo Bregman «emergeranno e avranno un profondo impatto sui data centre, e saranno una sfida al tradizionale senso di protezione e di gestione dei dati. La blockchain è un primo esempio di questa tendenza. Dato che non esiste un punto centrale di controllo, è impossibile cambiare o cancellare le informazioni contenute in una blockchain e tutte le transazioni sono irreversibili. Bisogna pensarlo come un sistema biologico. C’è una miriade di piccoli organismi e ognuno di loro sa cosa deve fare, senza dover comunicare con nessun altro o ricevere disposizioni. È poi sufficiente inserire un po’ di «nutrienti», che nel nostro caso sono i dati, e che sanno cosa fare: e tutto inizia a funzionare in modo cooperativo, senza alcun controllo centrale. Proprio come accade in una barriera corallina.
Ultima previsione: i dati cresceranno più velocemente della capacità di trasportarli. «E questo va bene», sottolinea Bregman. «Non è certo un segreto che i dati siano diventati incredibilmente dinamici e che siano generati a una velocità senza precedenti, che supererà di molto la capacità di trasportarli. Tuttavia, invece di trasferire i dati, saranno le applicazioni e le risorse necessarie per processarli a essere spostate su di loro. In futuro, la quantità di dati elaborati nel core sarà sempre inferiore a quelli generati nell’edge, ma questo non sarà casuale. Per esempio, le case automobilistiche stanno aggiungendo alle loro auto sensori che andranno a generare un tale numero di dati che non esistono reti abbastanza veloci per trasportarli dall’auto al data centre. Storicamente, i dispositivi edge non hanno mai creato una grossa quantità di dati ma ora, con sensori dappertutto, dalle automobili ai termostati ai dispositivi indossabili, i dati periferici stanno crescendo così velocemente che supereranno l’abilità delle reti di collegarsi con il core. Le vetture a guida autonoma e gli altri tipi di dispositivi periferici richiedono analisi in tempo reale per prendere decisioni critiche in tempo reale. Il risultato? Trasferiremo le applicazioni sui dati».
Data centre, la vita è adesso. Anche Vertiv (ex Emerson Network Power), nella sua top five sul 2018 dei centri elaborazione dati, punta sulla nuova missione dell’edge. L’azienda, specializzata nella progettazione, realizzazione e fornitura di servizi alle infrastrutture critiche indispensabili nei data centre, vede grandi progressi in questa dinamica. «Volumi crescenti di dati, alimentati in gran parte da dispositivi connessi, hanno indotto le aziende a riconsiderare le proprie infrastrutture per soddisfare le maggiori richieste dei consumatori», premette Giordano Albertazzi, presidente di Vertiv in Europa, Medio Oriente e Africa. «Anche se le società hanno diverse possibilità per sostenere questa crescita, molti leader It stanno scegliendo di avvicinare le proprie strutture all’utente o all’edge. A prescindere dall’approccio che adotteranno, la velocità e la continuità di servizio garantiti in questa fase diverranno l’offerta più allettante per i consumatori. Ecco. La «parolina magica» per giungere a tutto questo è Gen 4, cioè «data centre di quarta generazione» che, secondo una nota di Vertiv, «supererà ogni barriera, integrando facilmente le strutture core con un edge di rete mission-critical più intelligente», diventando «il modello per le reti It del 2020».
In atri termini, il futuro dà più importanza all’edge e non può prescindere dalla sua integrazione con il core, «questo», afferma Vertiv, «grazie ad architetture innovative che offrono capacità quasi in tempo reale in moduli scalabili ed economici»; questi, a loro volta, «sfruttano soluzioni termiche ottimizzate, alimentazione elettrica ad alta densità, batterie agli ioni di litio e unità avanzate di distribuzione dell’energia. Il tutto è coadiuvato da tecnologie evolute di monitoraggio e gestione, che permettono a centinaia o persino a migliaia di nodi It distribuiti di operare insieme per ridurre latenza e costi iniziali, aumentare i tassi di utilizzo, rimuovere la complessità e permettere alle organizzazioni di aggiungere capacità It legata alla rete, quando e dove necessario».
Ad avere un forte impatto sull’ecosistema del data centre nel 2018 sarà anche un particolare approccio da parte dei cloud provider che, grazie alla rapida affermazione delle «nuvole virtuali», non riescono a fronteggiare la richiesta di capacità. «In realtà», affermano a Vertiv, «molti non vorrebbero nemmeno provarci. Preferiscono concentrarsi sulla fornitura di servizi e altre priorità dei nuovi data centre e si rivolgeranno ai provider di colocation per soddisfare le esigenze di maggiore capacità». Una scelta che ha la sua logica: «Essendo focalizzate su efficienza e scalabilità, le strutture di colocation possono soddisfare la domanda rapidamente e allo stesso tempo ridurre i costi». E non è tutto. Il proliferare di strutture di colocation consente ai cloud provider una scelta davvero assortita, «in luoghi che rispondano alle necessità degli utenti, dove possano operare come strutture edge».
Collegata a questo trend è la terza previsione di Vertiv, che vede una riconfigurazione dei data centre di classe media. «Non è un mistero che le maggiori aree di crescita sul mercato dei data centre si trovino nelle infrastrutture hyperscale, in genere provider di cloud o colocation, e sull’edge di rete», afferma l’azienda. Con la crescita di queste risorse, dunque, «gli operatori di data centre tradizionali ora hanno l’opportunità di rivalutare e riconfigurare le proprie strutture e risorse che rimangono cruciali per le operazioni locali. Le organizzazioni con più data centre continueranno a consolidare le proprie risorse It interne, per esempio trasferendo nel cloud o in colocation ciò che è possibile spostare, ridimensionando e sfruttando allo stesso tempo configurazioni dalla rapida implementazione che possono essere scalate velocemente».
Nel mentre, si materializza una nuova occasione per il comparto: l’arrivo dell’alta densità. «La community dei data centre parla da un decennio di densità in forte crescita per la potenza dei rack, ma gli aumenti, nel migliore dei casi, sono stati incrementali. Le cose stanno cambiando. Densità inferiori a 10 kW per rack rimangono la norma, ma implementazioni a 15 kW, in strutture hyperscale non sono più così rare e alcune stanno avanzando verso i 25 kW». Perché proprio ora? «La responsabilità principale va all’introduzione e all’adozione diffusa di sistemi informatici iperconvergenti. I provider di colocation, ovviamente, danno priorità allo spazio nelle proprie strutture e l’alta densità dei rack può consentire maggiori guadagni. I progressi nel risparmio energetico nelle tecnologie di server e chip possono solo ritardare l’inevitabilità dell’alta densità posticipata a lungo. Ci sono tuttavia motivi per credere che uno spostamento in massa verso maggiori densità potrebbe assomigliare più a una lenta marcia che a un’accelerata. Densità notevolmente più alte possono cambiare in modo significativo la struttura di un data centre, dall’alimentazione al raffreddamento di ambienti a densità più elevate». L’alta densità sta dunque arrivando, «ma probabilmente non prima della fine del 2018 o oltre».
In conclusione, si torna all’edge, e in particolare alla reazione generale a questo nuovo approccio. «Un numero crescente di aziende», spiega Vertiv, «sta spostando i sistemi di computing sul proprio edge di rete; è quindi necessario procedere a una valutazione critica delle strutture che ospitano queste risorse edge, della loro sicurezza e della proprietà dei dati ospitati. Questa analisi include il progetto fisico e meccanico, la costruzione e la sicurezza delle strutture edge e complessi dettagli legati alla proprietà dei dati. I governi e gli enti regolatori di tutto il mondo non potranno evitare di considerare questi elementi e prendere eventuali provvedimenti. Spostare i dati distribuiti nel mondo sul cloud o in una struttura core e recuperarli per l’analisi è un processo troppo lento e macchinoso, per cui sempre più cluster di dati e capacità analitiche risiederanno sull’edge, un edge che può trovarsi in città, stati o paesi diversi da quelli in cui ha sede un’azienda. Chi sono i proprietari dei dati e cosa possono fare con questo patrimonio di informazioni? Il dibattito è in corso e nel 2018 si avanzerà verso azioni e risposte più concrete».
Pagamenti semplici e digitali. Per pagare e morire c’è sempre tempo, recita un vecchio proverbio. Ma, solo per quanto riguarda le transazioni, sia chiaro, ora non è più così. Colmare il ritardo accumulato dall’Italia nei pagamenti digitali è, secondo molti esperti, un imperativo categorico. «Alcuni paesi europei, in particolare quelli nordici, hanno già raggiunto una penetrazione elevatissima dei pagamenti digitali, mentre l’Italia registra ancora un forte ritardo che si traduce in minore competitività e quindi in un impatto economico negativo», ricorda Alessandro Piccioni, strategy & innovation director di Nexi, leader in Italia nei sistemi di pagamento digitali. «La grande diffusione del contante ha infatti un costo che si riversa sui cittadini e sulle imprese, che spesso non ne sono consapevoli». Il 2018 può rivelarsi determinante? Difficile dirlo. Ma l’anno scorso ha regalato al settore alcuni segnali positivi, che si sono tradotti in «un’accelerazione importante negli ultimi mesi. Nel corso di quest’anno, questa tendenza si può consolidare grazie a una maggiore consapevolezza dei benefici da parte di tutti gli attori coinvolti: banche, esercenti e consumatori finali».
In che modo si può agevolare questa nuova realtà? «Occorre fare leva su alcuni elementi strategici: semplicità di utilizzo, velocità e continua innovazione», dice Piccioni. «Il futuro dei pagamenti, e più in generale l’evoluzione del fintech in Italia, si giocherà proprio su questi tre assi. Ci sono ancora molte resistenze: prima di tutto, la spesso errata percezione del costo delle operazioni, ma il percorso è stato intrapreso e l’evoluzione infrastrutturale avviata. Una trasformazione che porterà a un ammodernamento dei sistemi di pagamento». Come? «In primo luogo attraverso l’introduzione e la diffusione capillare di smart pos che, tra le altre cose, garantiranno una migliore user experience di pagamento, e soprattutto l’introduzione di prodotti e servizi a supporto del business e dei consumatori, che i pos attuali non riescono a supportare».
Una banca irriconoscibile. Uno dei settori che, a fine anno, avrà risentito maggiormente della trasformazione tecnologica sarà quello bancario. Un mondo che è già stato completamente trasformato dall’onda Ict e digitale, ma che nell’anno in corso si deve aspettare una nuova tornata di novità tech, capaci di avere un impatto pesante su tutto il business. «Il 2018 sarà l’anno in cui cominceranno a emergere dei trend molto interessanti che non riguardano soltanto l’innovazione tecnologica, ma anche i modelli di business e vedremo che il concetto stesso di proprietà unica di un asset inizierà a essere messo in discussione», spiega Vincenzo Fiore, ceo di Auriga, azienda specializzata in software per la banca omnicanale. «Parliamo di cambiamenti ancora una volta molto lontani da ciò che era l’istituto di credito tradizionale, ma che aprono prospettive interessanti, ed è importante prepararsi fin da ora a questi cambiamenti, magari guardando all’estero dove qualcosa comincia già a muoversi».
La nuova ondata di cambiamento investirà praticamente tutto l’universo bancario. A iniziare dalle succursali. In questo caso, sarà una trasformazione strategica a indurre nuove strategie tech. «Molte banche inizieranno a considerare nuovi modelli di filiale per cominciare a condividere i costi infrastrutturali. Un trend che prenderà piede è la coabitazione di diversi brand all’interno di un unico hub dedicato ai servizi finanziari, anziché la creazione di tante filiali diverse di cui ciascun istituto è l’esclusivo proprietario. Questo porterà a ridurre i costi delle sedi e aumenterà invece il focus sulla customer experience. Considerato quindi che la filiale di per sé non sarà più l’unico fattore decisivo per la fidelizzazione del cliente, le banche dovranno investire in software innovativi e in sistemi self-service che le aiutino a differenziarsi».
Questa nuova prospettiva «a sua volta alimenta un altro grande trend che è quello del cambio di proprietà degli asset. Ci si aspetta che più banche si affidino a operatori terzi, specializzati nella fornitura e nella gestione degli Atm/Asd (assisted self service device), con una conseguente riduzione dei costi di gestione e di manutenzione di queste tecnologie. Per prepararsi a questo le banche dovrebbero cominciare a considerare l’adozione di software multivendor basati sul cloud».
Naturalmente, nel corso di quest’anno proseguirà il calo delle filiali; quelle rimaste «diventeranno sempre più smart e accattivanti per i consumatori. L’aumento degli investimenti in automazione e nel miglioramento della customer experience porterà a una convergenza tra canali bancari differenti». Il caro e ormai vecchio omnichannel. «Un elemento chiave», prosegue Fiore, «sarà il raggiungimento del giusto bilanciamento tra la parte digitale e quella fisica all’interno delle filiali, abbracciando le nuove tecnologie ma senza andare a discapito della presenza umana e della personalizzazione dei servizi al cliente. Già oggi, guardando alle banche europee, i clienti possono accedere a un gran numero di funzionalità in modalità self service e, allo stesso tempo, avvalersi del consulente di filiale specializzato in un determinato ambito».
Il 2018 è anche l’anno del regolamento europeo sulla protezione dei dati (General data protection regulation), che cambierà completamente l’approccio ai dati. «Le banche sono preparate per questi cambiamenti, ma da questo momento in avanti diventerà ancora più importante investire sui sistemi per raccogliere e elaborare i dati in tutta sicurezza, nel rispetto delle nuove norme». Oltre alla Gdpr, le aziende di credito dovranno fronteggiare la sfida della Psd2 e di tutti i player che verranno favoriti da questa apertura, prime tra tutte le «neobanche» e le fintech. «Sebbene queste non siano ancora in grado di minacciare realmente le banche tradizionali, per gli istituti di credito ora è il momento di occuparsene. Ci aspettiamo di vedere emergere una più stretta collaborazione favorita dall’entrata in vigore anche nel nostro paese della Psd2 e della conseguente necessità delle banche di mettere a disposizione le open Api per fornire al cliente finale nuovi modelli di servizio e di business».
Iot regista del cambiamento. C’è chi le previsioni non le fa a un anno, ma addirittura a tre. Schneider Electric, azienda specializzata nella gestione dell’energia e dell’automazione, ha infatti presentato lo Iot 2020 business report, dedicato a uno dei conclamati protagonisti dell’Ict di questa epoca: l’internet delle cose. Perché è stato scelto questo arco di tempo? La risposta è semplice: il 2020 è stato identificato come l’anno x, in cui il percorso che porterà le grandi aziende a servirsi delle tecnologie Iot sarà inesorabilmente completato.
Lo studio si basa su un’inchiesta effettuata da Schneider, che ha intervistato 3mila business leader in 12 paesi (Italia compresa), integrata dall’esperienza dell’azienda e dai feedback raccolti da clienti e partner. Cinque le previsioni per quest’anno. A partire dal ruolo di playmaker che l’internet delle cose si sta conquistando: lo Iot, infatti, «scatenerà la prossima ondata di trasformazione digitale, unificando i mondi delle tecnologie operative e informatiche e contribuendo a creare una nuova forza lavoro mobile e digitale. Man mano che le aziende espanderanno e approfondiranno i loro programmi di digitalizzazione fino a includere tutta l’impresa, l’internet of things prenderà sempre più il centro della scena. Questa nuova ondata di trasformazione sarà abilitata da nuovi sensori connessi disponibili a costi più abbordabili, intelligenza e controllo integrati negli oggetti, reti di comunicazione più veloci e presenti dappertutto, infrastrutture cloud, funzionalità di data analytics evolute».
Il secondo trend potrebbe essere visto come un de cuius: «Lo Iot sarà una fonte di innovazione, di stravolgimento dei modelli di business e di crescita economica per le imprese, il settore pubblico, i paesi delle economie emergenti. Le aziende, le città potranno creare nuovi servizi abilitati dalle tecnologie Iot; emergeranno nuovi modelli di business; in particolare saranno le economie emergenti ad avere l’opportunità importante di sfruttare rapidamente i vantaggi dell’internet delle cose senza avere il peso sulle spalle di infrastrutture preesistenti: essenzialmente saltando una fase. McKinsey prevede che il 40% del mercato mondiale delle soluzioni Iot sarà generato da paesi in via di sviluppo».
La rinnovata importanza dell’internet delle cose porterà le sue soluzioni a essere utilizzate «per affrontare le più gravi sfide ambientali e sociali, fra cui il riscaldamento globale, la scarsità di acqua, l’inquinamento. Infatti gli interpellati per la ricerca hanno identificato come vantaggio numero uno dello Iot per la società nel suo complesso la possibilità di usare meglio le risorse. Novità anche per la gestione del patrimonio informativo: «Lo Iot trasformerà dati prima non sfruttati in informazioni che permetteranno alle imprese di offrire ai clienti un’esperienza senza precedenti».
Infine, lo Iot «promuoverà un approccio al computing aperto, interoperabile e ibrido, e stimolerà la collaborazione fra gli attori del settore It e i governi per creare standard di architettura globali in grado di affrontare la questione cyber security. Mentre le soluzioni Iot cloud-based conquisteranno popolarità, nessuna singola architettura di computing avrà il monopolio. L’internet delle cose fiorirà fra diversi sistemi, a livello edge e on premise, come parte di offerte cloud privato o pubblico»
[/auth]