Post blog

Software

GOOGLE: ECCO LA CRITTOGRAFIA GENERATA DALL’INTELLIGENZA ARTIFICIALE

GOOGLE: ECCO LA CRITTOGRAFIA GENERATA DALL’INTELLIGENZA ARTIFICIALE

In futuro, le macchine potranno conservare e crittografare dei dati in maniera totalmente inaccessibile ai loro stessi programmatori? Tutto ciò potrebbe diventare realtà, stando a quanto hanno ottenuto i ricercatori di Big G coinvolti nei test di Google Brain, considerando come l’intelligenza artificiale sia stata in grado di creare un metodo crittografico. Per ottenere questo risultato particolarmente interessante, i ricercatori hanno utilizzato diversi sistemi di deep learning, la cui applicazione ha permesso di mettere in evidenza come l’AI possa creare da sola una soluzione crittografica in grado di evitare che i dati contenuti al suo interno possano essere letti da qualcuno. Per l’esperimento, sono state usate le tre intelligenze artificiali Alice, Bob ed Eve: queste ultime sono in grado di comunicare tra di loro e, ancora, le stesse hanno avuto uno speciale addestramento. Nel caso di Alice, infatti, è stato chiesto di spedire un messaggio segreto a Bob, unico proprietario di una chiave utile a decifrare il messaggio, e quindi potenzialmente l’unico in grado di comprendere quanto ricevuto da Alice. Eve, infine, ha ricevuto il compito di tentare di comprendere quanto presente nel messaggio recapitato a Bob, senza aver la chiave di lettura. Per quanto il test sia stato limitato ad un messaggio composto da 16 bit (impostati sui valori 0/1), è stato comunque interessante: per ben 15’000 volte, infatti, Alice e Bob sono riusciti a comunicare in modo sicuro, senza che Eve potesse decifrare le informazioni scambiate, grazie ad una soluzione crittografica che è diventata sempre più evoluta. Ma davvero in futuro le macchine potranno comunicare senza che si riesca a decifrare i loro messaggi? Nel futuro immediato, potremmo escludere questa ipotesi, tuttavia, il machine learning ha dimostrato ancora una volta come le macchine abbiano notevoli potenzialità, considerando come Alice abbia appreso in maniera autonoma – con l’incrementare dei tentativi – ad ottimizzare la soluzione crittografica per proteggere i messaggi, un compito portato a termine senza che fosse stata programmata con un codice ad hoc.  

Pubblicato il 8 nov 2016

Potrebbero interessarti

“NATIK”: IL PROGETTO DI RICERCA NATO PER DETERMINARE LA FATTIBILITÀ DI DATA CENTER SOTTOMARINI.

Redmond, casa Microsoft, siamo nei primi mesi del 2013. Ad alcuni dipendenti del settore Ricerca & Sviluppo del colosso dei servers, viene in mente l’idea di realizzare dei data center sottomarini. Potrebbe sembrare una pazzia o uno scherzo…invece nel 2014 parte lo sviluppo del primo prototipo di “Natik” e ad Agosto del 2015 il primo test. I data center del futuro potrebbero vivere sott’acqua non solo perché è l’habitat ideale per questo tipo di tecnologia ma anche perché ci sarebbe il vantaggio di rendere le infrastrutture più vicine in termine geografici agli utilizzatori finali. Oggi siamo abituati ad utilizzare svariati tipi di componenti elettronici e sappiamo bene che quando sono sotto stress e li mettiamo a lavorare intensamente, smartphones, notebook e dispositivi vari iniziano ad aumentare la loro temperatura. Ora pensate ai data center in cui ci sono migliaia di dispositivi che vanno a pieno regime, è ovvio che questi hanno bisogno di un sistema di raffreddamento che abbassi la temperatura ambientale ed è proprio questo il problema principale di un data center. Posizionando i data center in fondo al mare si può dire addio all’aria condizionata e con delle turbine che sfruttano i movimenti dell’acqua si può realizzare il raffreddamento con energia pulita, rinnovabile a costo zero! Il colosso di Redmond oggi gestisce un parco data center che va oltre le cento unità e ha spende in manutenzione ogni anno circa 15 miliardi di dollari per un sistema globale che offre oltre tantissimi servizi online in tutto il mondo. In questo modo si può abbassare il primario costo di un data center. Natik è una capsula d’acciaio di circa due metri e mezzo di diametro che è stata immersa a largo della costa Californiana, funzionando per oltre 100 giorni, sorprendendo gli stessi ingegneri che l’avevano progettata. L’utilizzo di data center subacquei avrebbe anche benefici logistici, oltre che quelli relativi alla temperatura. La maggior parte della popolazione, infatti, vive generalmente lontana dai server, che sono localizzati in zone poco popolate e quindi a bassa densità. Posizionare i data center nell’oceano e quindi più vicino ai centri abitati, aumenterebbe la velocità di trasferimento dei dati e anche della navigazione in rete degli utenti (oltre che dalla propria connessione dipende anche dal tempo di risposta del server). Anche le tempistiche sulla realizzazione e la posa in opera di un nuovo impianto sarebbero di gran lunga più vantaggiosi, infatti per costruire una capsula marina, servirebbero circa 90 giorni, contro i due anni necessari per la realizzazione di un data center “classico”. Non mancano all'orizzonte molti ostacoli che i ricercatori di Microsoft tenteranno di superare. Uno tra tutti la difficoltà di manutenzione da parte di operatori umani: per questo motivo le capsule dovrebbero essere in grado di rimanere al 100% operative senza manutenzione diretta per almeno 5 anni. Non mancano interrogativi sull'impatto ambientale che un'operazione del genere potrebbe comportare, soprattutto riguardo il riscaldamento dell'ambiente marino. Secondo i primi test condotti da Microsoft, le capsule genererebbero solo un "quantitativo estremamente piccolo" di calore, poiché l'energia che utilizzano è quella delle correnti marine e non ci sarebbe dispersione di calore, a parte quella legata alla conversione dell'energia. I ricercatori dell'azienda hanno anche registrato con sensori acustici che il ticchettio delle testine dei dischi e il fruscio delle ventole è sovrastato dal rumore di un singolo gamberetto che nuota vicino la capsula. Di seguito il link ufficiale del progetto per chi volesse approfondire e curiosare sull’argomento: http://natick.research.microsoft.com/

KILOCORE, CPU CON 1000 CORE INDIPENDENTI

KiloCore è il primo processore al mondo con 1000 core indipendenti, in grado di eseguire oltre 115 miliardi di operazioni al secondo con un consumo inferiore ad 1 Watt. Questo processore, messo a punto dall’Università della California , in collaborazione con IBM, è stato presentato all’ultimo Simposio Tecnologia e Circuiti VLSI, che si è tenuto alle Hawaii. I ricercatori della Università della California hanno recentemente presentato KiloCore, una CPU con 1000 core programmabili in modo indipendente, con un’elevata efficienza energetica. Chip con più di un processore sono da anni una realtà, tanto che dentro la gran parte dei nostri computer si possono trovare anche 12 processori che lavorano in maniera sincronizzata. Il nuovo chip, non ha solo un numero record di chip ma rappresenta una possibile rivoluzione nel loro funzionamento, e riesce a far lavorare i suoi processori in modo indipendente l'uno dall'altro, qualcosa di simile a una 'rete' di computer separati. Gli scopi per i quali viene utilizzato sono sempre gli stessi degli attuali multicore ma offrendo performance migliori: elaborare video, cifrare e decifrare dati e in ambiti scientifici dove applicazioni a elevato multithreading sono in grado di trarre vantaggio della presenza di più core. Per sfruttare il processore è ad ogni modo necessario software scritto ad hoc, in grado di trarre vantaggio dalla parallelizzazione. Quando deve eseguire un compito, KiloCore 'scompone' il tutto affidando singole parti di applicazioni ai vari processori che una volta completato il lavoro condividono i dati per ricostruire il risultato finale. Quando non sono necessari i singoli processori si disattivano permettendo così un enorme risparmio energetico, garantendo un'efficienza 100 volte migliore di quella di un tradizionale processore multiplo. La frequenza massima è pari a 1,78 GHz e ogni core può trasferire dati da se stesso ad un altro, senza alcuna memoria condivisa. Di fatto, i 1000 core sono possono eseguire 115 miliardi di operazioni al secondo, consumando solamente 0,7 Watt Avendo una 'logica' differente dai chip tradizionali, i ricercatori hanno dovuto sviluppare un ventaglio di applicazioni ad hoc, tra cui software per l'elaborazione delle immagini, dei video e strumenti per sviluppatori che potranno lavorare alla creazione di nuove applicazioni. KiloCore è stato sviluppato per sostituire i microchip attuali ma i costi e i tempi per una sua futura commercializzazione non sono stati definiti e di certo serviranno ancora alcuni anni prima che arrivi sul mercato.

COME RISOLVERE I PROBLEMI DELLA BATTERIA DELLO SMARTPHONE CON UNO STUZZICADENTI

Succede sempre così. Guardi il tuo smartphone e ti accorgi di avere la batteria quasi a zero. Niente panico. Prendi lo spinotto del caricabatteria e lo inserisci nell’apposita fessura. Panico. Il telefono non carica, anzi addirittura il cavo non entra nell’apertura adatta. La prima cosa che viene da pensare è che o si è guastata la batteria o che qualcosa non vada nella fessura predisposta per inserire il cavo. Niente di tutto ciò. La ricerca di Cnet.com mostra come spesso il problema sia legato all’accumulo di polvere e sporcizia all’interno del jack della carica e come un intervento semplice ed economico sia in grado di risolvere il problema. Il rimedio? Usare un semplice stuzzicadenti. Spegnendo il dispositivo, si potrà rimuovere delicatamente polvere e sporco all’interno della fessura per riavere ottime prestazioni della batteria. Il video di seguito dimostra come utilizzare al meglio lo stuzzicadenti. Quando si dice la tecnologia! [youtube]https://www.youtube.com/watch?v=Bp1Uy7l_d5Q[/youtube]