
Dasir Blog
Software
GOOGLE: ECCO LA CRITTOGRAFIA GENERATA DALL’INTELLIGENZA ARTIFICIALE
In futuro, le macchine potranno conservare e crittografare dei dati in maniera totalmente inaccessibile ai loro stessi programmatori? Tutto ciò potrebbe diventare realtà, stando a quanto hanno ottenuto i ricercatori di Big G coinvolti nei test di Google Brain, considerando come l’intelligenza artificiale sia stata in grado di creare un metodo crittografico. Per ottenere questo risultato particolarmente interessante, i ricercatori hanno utilizzato diversi sistemi di deep learning, la cui applicazione ha permesso di mettere in evidenza come l’AI possa creare da sola una soluzione crittografica in grado di evitare che i dati contenuti al suo interno possano essere letti da qualcuno. Per l’esperimento, sono state usate le tre intelligenze artificiali Alice, Bob ed Eve: queste ultime sono in grado di comunicare tra di loro e, ancora, le stesse hanno avuto uno speciale addestramento. Nel caso di Alice, infatti, è stato chiesto di spedire un messaggio segreto a Bob, unico proprietario di una chiave utile a decifrare il messaggio, e quindi potenzialmente l’unico in grado di comprendere quanto ricevuto da Alice. Eve, infine, ha ricevuto il compito di tentare di comprendere quanto presente nel messaggio recapitato a Bob, senza aver la chiave di lettura. Per quanto il test sia stato limitato ad un messaggio composto da 16 bit (impostati sui valori 0/1), è stato comunque interessante: per ben 15’000 volte, infatti, Alice e Bob sono riusciti a comunicare in modo sicuro, senza che Eve potesse decifrare le informazioni scambiate, grazie ad una soluzione crittografica che è diventata sempre più evoluta. Ma davvero in futuro le macchine potranno comunicare senza che si riesca a decifrare i loro messaggi? Nel futuro immediato, potremmo escludere questa ipotesi, tuttavia, il machine learning ha dimostrato ancora una volta come le macchine abbiano notevoli potenzialità, considerando come Alice abbia appreso in maniera autonoma – con l’incrementare dei tentativi – ad ottimizzare la soluzione crittografica per proteggere i messaggi, un compito portato a termine senza che fosse stata programmata con un codice ad hoc.

MILK: IL NUOVO LINGUAGGIO DI PROGRAMMAZIONE
Nei microprocessori moderni, la gestione della memoria è basata sul principio di località, ovvero: se un programma ha bisogno di alcuni dati in un particolare punto della memoria, probabilmente avrà bisogno successivamente anche dei dati vicini. Ma questo principio viene meno nell’era dei Big Data: ogni processo infatti è solito ad elaborare pochi dati presi arbitrariamente tra i tantissimi presenti. In genere l’accesso alla memoria RAM è di per sé la parte più dispendiosa dell’elaborazione (escluso l’accesso alle memorie fisiche) e quindi accedervi ripetutamente rallenta di molto l’elaborazione di grosse quantità di dati. Questa settimana, un gruppo di ricercatori del MIT (Massachusetts Institute of Technology), alla conferenza internazionale sulle architetture parallele e tecniche di compilazione, ha presentato un nuovo linguaggio di programmazione, chiamato Milk, che permette di gestire la memoria più efficacemente in programmi che hanno bisogno di accedere a dati particolari in dataset di grosse quantità. Nei test di molti algoritmi, i programmi scritti in Milk si sono mostrati molto più veloci di quelli scritti nei linguaggi di programmazione fino ad oggi esistenti. Il linguaggio in questione aggiunge alcuni comandi a OpenMP (Open Multiprocessing), un estensione di linguaggi come C e Fortran che rende facile lo sviluppo per processori multicores. Con Milk, un programmatore dovrà scrivere solo alcune righe di codice in più per gestire alcune operazioni che richiedono iterazione in una grande quantità di dati, e il compilatore Milk deciderà come gestire la memoria efficacemente. In un programma Milk, quando un core deve richiedere un dato dalla memoria, non lo richiede (insieme ai dati adiacenti) ma aggiunge l’indirizzo di memoria da richiedere ad una lista. Quando le liste di ogni core sono lunghe abbastanza, vengono messe insieme e vengono raggruppati gli indirizzi di memoria vicini e ridistribuiti ai vari cores con questi raggruppamenti. In questo modo, ogni core riceverà più dati di cui ha bisogno con un solo accesso. Questo, è ciò che succede ad alto livello, ma nel dettaglio, le cose si fanno complicate. Nei processori moderni, ci sono più livelli di cache, ognuno più grande e lento dell’altro. Il compilatore Milk deve dunque tener conto non solo degli indirizzi di memoria, ma anche di quelli in cache in tutti i livelli. Deciderà anche quali indirizzi tenere e quali scartare dalla cache. Ecco cosa ha detto a riguardo Matei Zaharia, un professore alla Standfor University: “Molte applicazioni importanti al giorno d’oggi richiedono una grande quantità di dati, ma sfortunatamente, la costante crescita del gap di performance tra CPU e memoria porta a non utilizzare al massimo le prestazioni della CPU. Milk aiuta a ridurre questa differenza di prestazioni ottimizzando l’accesso alla memoria in alcuni dei costrutti di programmazione più frequenti.”

BORSEGGIATORI: STOP AGLI INSEGUIMENTI
I droni sono pronti a diventare alleati delle forze dell'ordine contro gli scippi. Il Metropolitan Police di Londra ha infatti intenzione di utilizzare una flotta di droni per controllare motoveicoli sospetti, per prevenire borseggi e furti di smartphone sulle due ruote. Il vice commissario Craig Mackey, a tal proposito, ha fatto notare come i droni rappresentino un’alternativa più sicura alle unità in moto per dare battaglia ai borseggiatori. Nell'ultimo periodo soprattutto, sono davvero tanti gli scippi che la capitale inglese sta fronteggiando e quasi tutti hanno in comune la corsa da parte dei malviventi su due ruote. Gli inseguimenti in moto, con cui ad oggi la polizia cerca di controbattere a questi furti, risultano in alcuni casi pericolosi, potendosi concretizzare in ulteriori incidenti. Ecco quindi che i droni potrebbero rappresentare un’alternativa sicura per monitorare veicoli sospetti e raggiungere i malviventi direttamente a fine corsa. Il tutto, ovviamente, senza alcun intralci alla circolazione su strada. D'altronde, oltre il discorso legato prettamente alla sicurezza, l’utilizzo di droni per l’inseguimento di malviventi comporterebbe un risparmio non indifferente per le casse dello stato, senza considerare che un comune "quadricottero" dotato di GPS, potrebbe tenere traccia e monitorare i movimenti di potenziali sospetti, creando così una mappa sempre aggiornata di possibili covi in cui condurre gli agenti, senza rischio di inseguimenti ad alta velocità. I droni quindi, sono pronti a contrastare i malviventi in maniera più economica e sicura...Se l'esperimento inglese andasse a buon fine, potremmo presto vederlo anche negli altri Paesi.

KILOCORE, CPU CON 1000 CORE INDIPENDENTI
KiloCore è il primo processore al mondo con 1000 core indipendenti, in grado di eseguire oltre 115 miliardi di operazioni al secondo con un consumo inferiore ad 1 Watt. Questo processore, messo a punto dall’Università della California , in collaborazione con IBM, è stato presentato all’ultimo Simposio Tecnologia e Circuiti VLSI, che si è tenuto alle Hawaii. I ricercatori della Università della California hanno recentemente presentato KiloCore, una CPU con 1000 core programmabili in modo indipendente, con un’elevata efficienza energetica. Chip con più di un processore sono da anni una realtà, tanto che dentro la gran parte dei nostri computer si possono trovare anche 12 processori che lavorano in maniera sincronizzata. Il nuovo chip, non ha solo un numero record di chip ma rappresenta una possibile rivoluzione nel loro funzionamento, e riesce a far lavorare i suoi processori in modo indipendente l'uno dall'altro, qualcosa di simile a una 'rete' di computer separati. Gli scopi per i quali viene utilizzato sono sempre gli stessi degli attuali multicore ma offrendo performance migliori: elaborare video, cifrare e decifrare dati e in ambiti scientifici dove applicazioni a elevato multithreading sono in grado di trarre vantaggio della presenza di più core. Per sfruttare il processore è ad ogni modo necessario software scritto ad hoc, in grado di trarre vantaggio dalla parallelizzazione. Quando deve eseguire un compito, KiloCore 'scompone' il tutto affidando singole parti di applicazioni ai vari processori che una volta completato il lavoro condividono i dati per ricostruire il risultato finale. Quando non sono necessari i singoli processori si disattivano permettendo così un enorme risparmio energetico, garantendo un'efficienza 100 volte migliore di quella di un tradizionale processore multiplo. La frequenza massima è pari a 1,78 GHz e ogni core può trasferire dati da se stesso ad un altro, senza alcuna memoria condivisa. Di fatto, i 1000 core sono possono eseguire 115 miliardi di operazioni al secondo, consumando solamente 0,7 Watt Avendo una 'logica' differente dai chip tradizionali, i ricercatori hanno dovuto sviluppare un ventaglio di applicazioni ad hoc, tra cui software per l'elaborazione delle immagini, dei video e strumenti per sviluppatori che potranno lavorare alla creazione di nuove applicazioni. KiloCore è stato sviluppato per sostituire i microchip attuali ma i costi e i tempi per una sua futura commercializzazione non sono stati definiti e di certo serviranno ancora alcuni anni prima che arrivi sul mercato.

IL RUOLO DEI COMPILATORI NELLE ARCHITETTURE RICONFIGURABILI
L'hardware riconfigurabile è di fatti una realtà in continua evoluzione e crescita. I dispositivi FPGA trovano sempre maggior impiego nelle diverse realtà tecnologiche, quali ad esempio datacenter e IoT. La riconfigurazione dell'hardware comporta diversi vantaggi in termini prestazionali. Infatti un FPGA può essere programmato in due modi diversi tali da consentire di rispettare gli stessi requisiti funzionali con performance diverse. Tra queste gioca un ruolo fondamentale il consumo di potenza, argomento ampiamente di attualità visto l'utilizzo sempre più frequente e frenetico di dispositivi mobili che necessitano di un'alimentazione tale da garantirne l'uso per almeno un'intera giornata. Tra le possibilità che un FPGA offre, in base alla sua caratteristica di riconfigurabilità, c'è quella di progettare un'architettura fortemente dinamica capace di riconfigurarsi continuamente in base al tipo di applicazione che deve essere processata. Semplificando con un esempio, si pensi alla possibilità di avere un elemento di processamento che si comporti come una GPU quando si elaborano applicazioni fortemente grafiche e come un processore in caso di elaborazioni che richiedono più logica di controllo che processamento massivo. Affinché tale architettura possa essere realizzata è necessario prevedere un meccanismo capace di collegare la parte software delle diverse applicazioni con quella hardware che è riconfigurabile. Tale strato è identificabile attraverso un compilatore che deve essere capace di tradurre nella maniera corretta ed ottimizzata le applicazioni in codice macchina, interpretabile dall'architettura sottostante che essendo riconfigurabile cambierà di volta in volta. Esistono delle toolchain di compilatori che consentono la realizzazione di questo modello. Tali toolchain prevedono sostanzialmente due componenti fondamentali che sono la parte di front-end e quella di back-end. In particolare, la prima consente la traduzione del codice sorgente in un linguaggio di rappresentazione intermedia, definito in genere dalla toolchain stessa. In questo modo è possibile ottenere la stessa rappresentazione per sorgenti provenienti da linguaggi di programmazione differenti. Ovviamente è necessario che la toolchain preveda un compilatore di front-end per ognuno dei linguaggi di programmazione sorgenti supportati. La parte di back-end invece, partendo dalla rappresentazione intermedia che viene prodotta dal componente di front-end, deve produrre del linguaggio macchina (sequenze di bit!) interpretabile dall'architettura sottostante. Dal momento che la nostra architettura è di tipo riconfigurabile è necessario implementare la parte di back-end del compilatore in maniera parametrica, ovvero capace di conoscere di volta in volta i parametri che descrivono in modo completo l'architettura per cui deve essere prodotto il codice macchina. Le piattaforme eterogenee e le architetture riconfigurabili saranno probabilmente la nuova frontiera da perseguire per ottimizzare le performance nei sistemi di elaborazione. Pertanto, in un certo senso, l'oggettiva distanza che esiste tra hardware e software potrebbe ridursi attraverso l'implementazione di piattaforme che richiedono hardware descritto via software e software tradotto in base all'hardware sottostante.

WORDSMITH, IL SOFTWARE CHE AUTOGENERA ARTICOLI
I robot stanno diventando sempre più presenti nella nostra vita quotidiana...Chi avrebbe mai pensato che un software sarebbe stato in grado di sostituire le persone nella creazione di articoli? Ma oltre a rappresentare un aiuto reale, ora rischiano di diventare addirittura una minaccia. La compagnia tecnologica Automated Insights sta sviluppando il software Wordsmith Beta, che sarebbe in grado di scrivere articoli giornalistici al posto degli uomini. Detto in poche parole, la figura del giornalista potrebbe essere sostituita da un robot “scrittore”. Wordsmith è un programma che si basa sull’intelligenza artificiale per generare articoli o recensioni personalizzabili. L’idea alla base di Wordsmith è quella di creare articoli e recensioni, candidandosi ad un vero e proprio programma in grado di sostituire i giornalisti e gli scrittori. Ma qual è il principio di funzionamento di Wordsmith? L’azienda creatrice ha sfruttato i notevoli passi avanti realizzati dall’intelligenza artificiale. Basti pensare, non a caso, al supercomputer Watson di IBM, in grado di analizzare immense moli di dati e riuscire a imparare delle stesse. Di fatto, Wordsmith sembra essere una piattaforma “intelligente” in grado di generare articoli e recensioni personalizzabili. Tuttavia, entrando all’interno del sito della società creatrice, si scopre che Wordsmith deve aver alcuni dati di partenza. Grazie a fonti solide, il programma è in grado di autogenerare testi. Tuttavia, il secondo passaggio richiede sempre un intervento umano. Infatti, Wordsmith richiede un passaggio intermedio in cui personalizzare il testo e lo stile di scrittura. Se da un lato questo nuovo software che non può ancora competere con i giornalisti e gli scrittori, dall’altro rappresenta un importante strumento per automatizzare una parte del processo, soprattutto quando vi sono importanti moli di dati da analizzare. Possiamo dire con certezza che la creazione di un programma di scrittura completamente automatizzata in grado di sostituire l’uomo è ancora un’utopia. Scrivere un testo è un’azione complessa per un computer e riuscire ad emulare il linguaggio, lo stile di scrittura ed il pensiero sembra essere veramente impossibile, perché nessun robot può riversare su quello che scrive le proprie emozioni, trovandosi logicamente impossibilitato a provarle. Il robot finora è stato impiegato in articoli statistici e finanziari, ed ora la società sta pensando di allargare i propri orizzonti. I ricercatori della compagnia informatica Automated Insights, stanno sviluppando un modello per creare articoli molto più complessi e incentrati sulle più disparate tematiche di attualità, introducendo attraverso tecniche basate sull’ intelligenza artificiale un alto grado di personalizzazione nella stesura del testo, facendo percepire al lettore le sensazioni ed emozioni del “giornalista”. Secondo uno studio condotto dal ricercatore Christer Clerwall, le persone tenderebbero mediamente a non distinguere tra un articolo prodotto da Wodrsmith Beta e uno scritto invece da un giornalista in carne ed ossa, il che getta inquietanti dubbi sulla nostra assuefazione alla tecnologia e su quanto i versanti strettamente teorici finiranno per prevalere presto sulla nostra componente emotiva.

“NATIK”: IL PROGETTO DI RICERCA NATO PER DETERMINARE LA FATTIBILITÀ DI DATA CENTER SOTTOMARINI.
Redmond, casa Microsoft, siamo nei primi mesi del 2013. Ad alcuni dipendenti del settore Ricerca & Sviluppo del colosso dei servers, viene in mente l’idea di realizzare dei data center sottomarini. Potrebbe sembrare una pazzia o uno scherzo…invece nel 2014 parte lo sviluppo del primo prototipo di “Natik” e ad Agosto del 2015 il primo test. I data center del futuro potrebbero vivere sott’acqua non solo perché è l’habitat ideale per questo tipo di tecnologia ma anche perché ci sarebbe il vantaggio di rendere le infrastrutture più vicine in termine geografici agli utilizzatori finali. Oggi siamo abituati ad utilizzare svariati tipi di componenti elettronici e sappiamo bene che quando sono sotto stress e li mettiamo a lavorare intensamente, smartphones, notebook e dispositivi vari iniziano ad aumentare la loro temperatura. Ora pensate ai data center in cui ci sono migliaia di dispositivi che vanno a pieno regime, è ovvio che questi hanno bisogno di un sistema di raffreddamento che abbassi la temperatura ambientale ed è proprio questo il problema principale di un data center. Posizionando i data center in fondo al mare si può dire addio all’aria condizionata e con delle turbine che sfruttano i movimenti dell’acqua si può realizzare il raffreddamento con energia pulita, rinnovabile a costo zero! Il colosso di Redmond oggi gestisce un parco data center che va oltre le cento unità e ha spende in manutenzione ogni anno circa 15 miliardi di dollari per un sistema globale che offre oltre tantissimi servizi online in tutto il mondo. In questo modo si può abbassare il primario costo di un data center. Natik è una capsula d’acciaio di circa due metri e mezzo di diametro che è stata immersa a largo della costa Californiana, funzionando per oltre 100 giorni, sorprendendo gli stessi ingegneri che l’avevano progettata. L’utilizzo di data center subacquei avrebbe anche benefici logistici, oltre che quelli relativi alla temperatura. La maggior parte della popolazione, infatti, vive generalmente lontana dai server, che sono localizzati in zone poco popolate e quindi a bassa densità. Posizionare i data center nell’oceano e quindi più vicino ai centri abitati, aumenterebbe la velocità di trasferimento dei dati e anche della navigazione in rete degli utenti (oltre che dalla propria connessione dipende anche dal tempo di risposta del server). Anche le tempistiche sulla realizzazione e la posa in opera di un nuovo impianto sarebbero di gran lunga più vantaggiosi, infatti per costruire una capsula marina, servirebbero circa 90 giorni, contro i due anni necessari per la realizzazione di un data center “classico”. Non mancano all'orizzonte molti ostacoli che i ricercatori di Microsoft tenteranno di superare. Uno tra tutti la difficoltà di manutenzione da parte di operatori umani: per questo motivo le capsule dovrebbero essere in grado di rimanere al 100% operative senza manutenzione diretta per almeno 5 anni. Non mancano interrogativi sull'impatto ambientale che un'operazione del genere potrebbe comportare, soprattutto riguardo il riscaldamento dell'ambiente marino. Secondo i primi test condotti da Microsoft, le capsule genererebbero solo un "quantitativo estremamente piccolo" di calore, poiché l'energia che utilizzano è quella delle correnti marine e non ci sarebbe dispersione di calore, a parte quella legata alla conversione dell'energia. I ricercatori dell'azienda hanno anche registrato con sensori acustici che il ticchettio delle testine dei dischi e il fruscio delle ventole è sovrastato dal rumore di un singolo gamberetto che nuota vicino la capsula. Di seguito il link ufficiale del progetto per chi volesse approfondire e curiosare sull’argomento: http://natick.research.microsoft.com/

COMMODORE 64... “I'LL BE BACK”
“I’ll be back” (Tornerò). Prendo in prestito una mitica frase di Schwarzenegger per descrivere il ritorno di un mito come il Commodore 64. Il Commodore 64 fu uno dei primi personal computer ad entrare nelle case di tutti; il segreto del successo era dovuto al prezzo contenuto e alla facilità d’installazione: tutti sanno collegare 2 cavi. Per utilizzarlo bastava accendere la tv e fare la ricerca delle frequenze, mettere una cassetta nel mangianastri, lanciare un programma o un gioco (io ricordo nostalgicamente quello dei Motocross) ed aspettare una mezz’oretta per l’avvio. Dopo il primo fallimento di Commodore, il famoso personal computer sembrava rinato grazie alla nuova Commodore USA, azienda che nel 2012 aveva pensato di riproporre il buon vecchio C64 con un hardware di nuova generazione e puntando su Commodore OS Vision, una distribuzione basata su Linux Mint come sistema operativo preinstallato e non il buon vecchio Basic disponibile comunque nella distribuzione grazie ad un’emulatore dedicato. A quanto pare Commodore USA ha terminato la commercializzazione dei nuovi C64 nei primi mesi del 2013, il nuovo Commodore C64 basato su Linux non è riuscito a riavere il successo riscontrato negli anni 80. A riproporre ancora una volta il mitico Commodore 64 ci pensa niente meno che Amibyte, un’azienda produttrice italiana che ha deciso di riportare in vita il C64 includendo hardware di nuova generazione e offrendo agli utenti la possibilità di poter scegliere quale sistema operativo preinstallare nel personal computer. Attualmente il nuovo Commodore C64x made in Italy è disponibile nella versione Barebone con il case in stile C64 ed una configurazione che prevede un processore AMD APU A8 o A10 oppure con processori Intel Atom o ancora Core i3, i5 o i7 dotato di lettore / masterizzatore CD/DVD o Blu Ray, Card Reader ecc. I nuovi Commodore 64 prodotti da Amibyte vengono rilasciati con Commodore OS Vision oppure opzionalmente con Microsoft Windows il tutto a partire da 649 Euro fino ad arrivare ai 1299 Euro per il C64x con Intel Core i7. Alla fine è tornato!

RIVOLUZIONE CLOUD
Il “cloud” ha rappresentato una rivoluzione – tuttora in corso – nel mondo di Internet, sia per le persone che per le aziende. Perchè? Semplice: grazie al cloud, le persone e le aziende possono ora accedere a programmi e servizi tramite Internet che altrimenti richiederebbero ingenti risorse per funzionare. Questo è il cosiddetto “cloud computing”: l’offerta/fruizione di applicazioni e servizi tramite internet. Queste applicazioni sono installate in potenti servers ospitati in grandi data centers e sfruttano la potenza dei servers (e reti di servers) per operazioni che non sarebbero facilmente realizzabili se non a grandi spese. E’ il “cloud computing” a permettere alle persone ed alle aziende – anche alle aziende di piccolissime dimensioni – di accedere gratuitamente e bassissimi costi a programmi e servizi in passato accessibili soltanto a grandi aziende che avevano risorse per investire in un parco hardware e software e nel personale necessario. Un’azienda che vende prodotti potrebbe ad esempio aver bisogno di un programma di gestione delle vendite (come SalesForce) o di CRM (come Sage). Prima del cloud un’azienda avrebbe dovuto acquistare la costosa licenza per l’utilizzo del software, e poi mettere in piedi un team di esperti hardware e software per installare, configurare, testare, eseguire, proteggere, aggiornare il programma una volta acquistato. Ovviamente, piccole e medie aziende non avevano le risorse per poterlo fare o per farlo per tutti i programmi di cui avevano bisogno. Oggi invece, grazie al “cloud computing”, le aziende interessate a specifici servizi semplicemente affittano il servizio via cloud o pagano a consumo, sempre comunque accedendo tramite il cloud al servizio. Il programma che permette la fruizione del servizio ed i dati contenuti in esso sono accessibili via Internet all’azienda, ed eventualmente ai suoi utenti o clienti. I vantaggi del cloud per le aziende sono numerosi. Il fornitore del servizio cloud, chiamato “hosting service provider“, gestisce tutto ciò che riguarda hardware e software al posto dell’azienda. L’azienda accede al servizio e ai suoi dati via Internet, e si può così focalizzare soltanto sul proprio business, dimenticandosi di tutto il lato tecnico. Non si deve preoccupare più ad esempio di installare o aggiornare il programma. Inoltre, l’azienda può pagare solo le funzionalità necessarie: se non serve avere una specifica funzionalità, il costo del servizio è più basso. Gli aggiornamenti sono automatici, la scalabilità verso l’alto o verso il basso è semplice, e i dati sono duplicati in più data centers. Anche in caso di guasti tecnici o attacchi di hackers ai servers di un data center, l’hosting provider può recuperare e duplicare nuovamente i tuoi dati dai servers negli altri data centers. Ovviamente, questi vantaggi valgono anche per gli utenti privati. Quando ti affidi ad esempio ad un servizio cloud per archiviare i tuoi dati, non ti devi preoccupare della possibile perdita dei dati: sai che vengono duplicati più volte in più sedi geografiche diverse. E per molte delle tue attività quotidiane che svolgi tramite computer, ad oggi non sei obbligato a comprare un programma, ad installarlo, ad aggiornarlo, ad avere un computer potente per poterlo usare o un computer capiente per conservare tutti i dati che man mano accumuli nel tempo. E’ per questo che numerosissime attività oggi sono possibili per tutti, mentre in passato erano possibili solo a fronte di grandi spese e del possesso di computer potenti. E la tendenza è questa: sempre più il tuo computer si svuoterà di programmi e funzionerà invece solo come interfaccia per l’accesso a servizi cloud. E sempre più i tuoi dati, la tua musica, i tuoi video, i tuoi documenti saranno depositati in servers accessibili via cloud invece che nel computer di casa o in chiavette usb o in hard disk esterni. E non pensare che il cloud sia utile solo per dati di questo tipo. Ci sono infinite possibili utili applicazioni del cloud in situazioni di vita reali. Pensa invece ad esempio alla possibilità per un dottore, in caso di emergenza medica, di accedere alla tua cartella sanitaria via cloud per capire se sei allergico o meno a certi farmaci o effettuare una diagnosi migliore (sistemi nazionali di Electronic Health Records sono già disponibili in numerosi stati). Le grandi aziende di Internet sono state tra le prime a cavalcare la rivoluzione del cloud. Google si è lanciato nel cloud computing con numerosi servizi come Gmail e Google Docs. Anche lo sviluppo di Android è fortemente orientato al cloud, permettendoti di accedere alla posta elettronica, ai tuoi documenti direttamente dal dispositivo (smartphone o Tablet) su cui è installato. Google ha anche investito pesantemente in computers come Chromebook, che si appoggiano al cloud per quasi ogni possibile attività che tu voglia fare o di cui il computer ha bisogno per la manutenzione, l’aggiornamento e la sicurezza. Microsoft ha sviluppato la piattaforma Azure, puntando principalmente sui servizi per le piccole e medie imprese, e sta anche modificando la propria offerta software spingendo verso il cloud. L’ultima versione di Office 365 si appoggia al cloud per salvare i tuoi file direttamente nel cloud e renderli sempre disponibili dovunque, tramite connessione Internet. Anche Apple è stata tra i pionieri del cloud: non a caso iTunes, che sfrutta il cloud per salvare i tuoi file e gusti musicali, è la piattaforma leader nel mercato della musica digitale. Il cloud può essere usato per il backup dei tuoi dati, per l’archiviazione (il cosiddetto cloud storage), per la condivisione dei tuoi file con i tuoi contatti, per la collaborazione online su documenti, e per la gestione delle tue foto e dei tuoi file audio e video.
