Tag Blog

google

Project Loon

Project Loon

Quante volte ci siamo lamentati di avere la connessione lenta sul proprio smartphone o di trovarci in zone dove la linea non è proprio eccellente. Eppure non ci siamo mai preoccupati di quei posti nel mondo in cui l’accesso ad Internet non è disponibile, per motivi economici o anche ambientali. E’ da questo pensiero che forse è nata l'idea ambiziosa di Google di portare la connessione ad Internet “ovunque”. L'idea è di farlo per mezzo di palloni aerostatici. Nasce così il “Project Loon”. Mike Cassidy, direttore del progetto, spiega che Google pensa alla possibilità di costruire un anello di palloni che volano attorno al globo sfruttando i venti stratosferici e fornendo così l’accesso a Internet ai territori sottostanti. Con questa foto pubblicata su Instagram, Google ha festeggiato il primo anno del progetto. Ci sono novità sulle sperimentazioni dei palloncini che stanno portando ottimi risultati, anche se c’è ancora molta strada da fare. La previsione è di poter festeggiare il prossimo compleanno del progetto con una flotta di palloncini pronti a fornire connettività a un tante persone intorno al mondo. Attualmente Google sta lavorando per migliorare le prestazioni dei suoi palloncini: invece del Wi-Fi ha optato per una connettività LTE, che consente più connessioni contemporaneamente e una velocità fino a 22 Mb/s da un’antenna sul terreno e 5 Mb/s da un telefono. Inoltre, i palloni areostatici riescono a volare per più di 70 giorni, anche se l’obiettivo è di arrivare a 100. Ci sono ancora molti ostacoli intorno a questo progetto, ma il team di lavoro è ottimista. Noi aspettiamo di veder volare i palloncini in cielo. [embed]http://youtu.be/MiEZfRh-h-s[/embed]

Il Machine Learning

Il Machine Learning

  Il Machine Learning insegna a dispositivi mobile, computer, robot e altro a fare azioni ed attività in modo naturale. In sostanza, i Machine Learning usano metodi matematico-computazionali per apprendere informazioni direttamente dai dati, senza modelli matematici ed equazioni predeterminate. Questi algoritmi migliorano le loro prestazioni in modo del tutto automatico mano a mano che acquisiscono più esperienza e quindi “esempi” da cui apprendere. La startup londinese Tessian (fondata nel 2013 da tre laureati in ingegneria) sta implementando il Machine Learning per migliorare la sicurezza della posta elettronica. Tessian si basa sul presupposto che gli esseri umani sono l'anello debole nell'e-mail aziendale e nella sicurezza dei dati. Questo può essere dovuto a errori, come un destinatario erroneamente inteso, o attraverso una nefanda attività dei dipendenti. Applicando il Machine Learning al monitoraggio della posta elettronica aziendale, la startup ha sviluppato vari strumenti per aiutare a prevenire questo. Una volta installato nei sistemi di posta elettronica di un'azienda, la tecnologia di apprendimento automatico di Tessian analizza le reti di posta elettronica per comprendere schemi e comportamenti di invio e-mail normali e anormali. Quindi tenta di rilevare le anomalie nelle e-mail in uscita e avvisa gli utenti di potenziali errori prima che venga inviata un'e-mail. Questo utilizzo lo rende diverso dalle tecnologie basate su regole legacy e che Tessian richiede. Quindi non necessita di nessun amministratore di sicurezza e nessun cambiamento di comportamento dell'utente finale. Oltre all’applicazione nelle email come implementato da Tessian, il Machine Learning è presente e applicabile anche in altri settori. Alcuni esempi si ritrovano nell’utilizzo dei motori di ricerca, o riconoscimento vocale, o ancora nelle auto con guida automatica che, proprio attraverso il Machine Learning, imparano a riconoscere l’ambiente circostante con i dati raccolti da sensori. Un’altra applicazione sono i sistemi di raccomandazione che, sfruttano il Machine Learning imparando dal comportamento e dalle preferenze degli utenti che navigano su siti web, piattaforme o App; come Amazon, Spotify e altri. Infine, anche Google (dal 2018) e Apple (dal 2017) hanno implementato un framework Machine Learning nel proprio sdk di Android e iOS, per dare appunto la possibilità ai loro sviluppatori di sfruttare il Machine Learning nelle proprie App per renderle sempre più intelligenti e creare App con maggiori funzionalità di apprendimento automatico.    

Flutter: il nuovo framework by Google

Flutter: il nuovo framework by Google

  Durante il Mobile World Congress 2018 Google ha annunciato la prima versione beta di Flutter. Flutter è il nuovo framework di Google che aiuta gli sviluppatori a realizzare applicazioni native sia per iOS che per Android. Flutter pone come obbiettivo principale lo sviluppo mobile veloce e performante grazie anche ad alcune funzionalità come un set completo di widget preimpostati per la realizzazione rapida di design nativo. Ovviamente Google ha anche dichiarato il pieno supporto per Android Studio e non solo. Flutter è infatti supportato anche da Visual Studio Code attraverso un plugin. Inoltre il team Google ha dichiarato la presenza di diverse App già realizzate e pubblicate con Flutter, tra cui anche quella di AdWords. Per chi ha un device Android è vuole provare a vedere di cosa si tratta vi rimandiamo all’App Flutter Gallery realizzata da Google come esempio. Infine passando al lato tecnico Google è fiera di annunciare la massima compatibilità di Flutter con oltre 1000 pacchetti, utili ad interfacciare la nostra applicazioni, come: SQLite, Firebase, Facebook ecc. Nell’attesa di sviluppi futuri vi rimandiamo al sito ufficiale flutter.io per chi volesse provare Flutter [embed]https://youtu.be/fq4N0hgOWzU[/embed]

Bug dei microprocessori

Bug dei microprocessori

Meltdown e Spectre sono vulnerabilità hardware scoperte dai ricercatori di Project Zero di Google, rese pubbliche il 3 gennaio 2018 tramite rumors diffusi su social, web e programmi tv. Google spiega che malintenzionati possono sfruttare la "speculative execution". Questa consiste nell'esecuzione di frammenti di codice il cui risultato è utile solo quando l'esecuzione anticipata delle istruzioni utilizza meno spazio e meno tempo in fase di lettura della memoria di sistema. Tale procedura è utilizzata in maniera malevola per leggere dati sensibili nella memoria di sistema, come password, chiavi crittografiche o eventuali informazioni sensibili nei software “aperti”. Tali vulnerabilità interessano molte CPU e inoltre coinvolgono i dispositivi e i sistemi operativi da esse eseguiti. A seguito di alcuni aggiornamenti e di alcuni studi effettuati nell’ultimo periodo, le case produttrici stanno correndo ai ripari. Ad esempio, AMD afferma che i propri processori sono risultati vulnerabili a Spectre ma non a Meltdown. Le GPU Nvidia, invece, non sono colpite da Meltdown e Spectre ma comunque Nvidia ha aggiornato i propri driver per mitigare l'impatto dell'attacco Spectre. Apple ha confermato che le vulnerabilità interessano tutti i dispositivi presenti sul mercato che eseguono iOS e macOS ma sta rilasciando continui aggiornamenti per arginare il problema. Per verificare se il proprio sistema è colpito da tale bug si può seguire questa semplice guida: Aprire una finestra di PowerShell con i permessi di amministratore (tasto destro, Esegui come amministratore)  (clicca immagine per ingrandire) Digitare il comando "Install-Module SpeculationControl". Quando richiesto, confermare (digitando S e premendo Invio) l'utilizzo del provider NuGet e in un secondo momento dell'archivio non attendibile.  (clicca immagine per ingrandire) Digitare il comando "Get-ExecutionPolicy" per verificare se si hanno i permessi di esecuzione degli script esterni. Nel caso in cui non si abbiano i permessi, digitare "Set-ExecutionPolicy RemoteSigned"  (clicca immagine per ingrandire) Successivamente, si può avviare lo script vero e proprio, tramite i comandi "Import-Module SpeculationControl" e in seguito "Get-SpeculationControlSettings"  (clicca immagine per ingrandire) La voce "Windows OS support for branch target injection mitigation"  con valore True indica che si sono installate le patch Microsoft. Il valore False indica invece l'assenza dell'aggiornamento. "Hardware support for branch target injection mitigation" suggerisce l’installazione dell'aggiornamento del firmware (UEFI/BIOS) per proteggersi da Spectre. Per una protezione completa, quindi, basterà far riferimento al sito ufficiale del produttore del PC, dispositivo o scheda madre cercando un aggiornamento del BIOS che nel proprio "changelog" presenti un riferimento all'introduzione del "microcode Intel aggiornato a gennaio 2018". In alternativa è possibile affidarsi ad un’azienda informatica che sia in grado di garantire la protezione dell’integrità fisica (hardware) e logico-funzionale (software) dei sistemi coinvolti.

GOOGLE: ECCO LA CRITTOGRAFIA GENERATA DALL’INTELLIGENZA ARTIFICIALE

GOOGLE: ECCO LA CRITTOGRAFIA GENERATA DALL’INTELLIGENZA ARTIFICIALE

In futuro, le macchine potranno conservare e crittografare dei dati in maniera totalmente inaccessibile ai loro stessi programmatori? Tutto ciò potrebbe diventare realtà, stando a quanto hanno ottenuto i ricercatori di Big G coinvolti nei test di Google Brain, considerando come l’intelligenza artificiale sia stata in grado di creare un metodo crittografico. Per ottenere questo risultato particolarmente interessante, i ricercatori hanno utilizzato diversi sistemi di deep learning, la cui applicazione ha permesso di mettere in evidenza come l’AI possa creare da sola una soluzione crittografica in grado di evitare che i dati contenuti al suo interno possano essere letti da qualcuno. Per l’esperimento, sono state usate le tre intelligenze artificiali Alice, Bob ed Eve: queste ultime sono in grado di comunicare tra di loro e, ancora, le stesse hanno avuto uno speciale addestramento. Nel caso di Alice, infatti, è stato chiesto di spedire un messaggio segreto a Bob, unico proprietario di una chiave utile a decifrare il messaggio, e quindi potenzialmente l’unico in grado di comprendere quanto ricevuto da Alice. Eve, infine, ha ricevuto il compito di tentare di comprendere quanto presente nel messaggio recapitato a Bob, senza aver la chiave di lettura. Per quanto il test sia stato limitato ad un messaggio composto da 16 bit (impostati sui valori 0/1), è stato comunque interessante: per ben 15’000 volte, infatti, Alice e Bob sono riusciti a comunicare in modo sicuro, senza che Eve potesse decifrare le informazioni scambiate, grazie ad una soluzione crittografica che è diventata sempre più evoluta. Ma davvero in futuro le macchine potranno comunicare senza che si riesca a decifrare i loro messaggi? Nel futuro immediato, potremmo escludere questa ipotesi, tuttavia, il machine learning ha dimostrato ancora una volta come le macchine abbiano notevoli potenzialità, considerando come Alice abbia appreso in maniera autonoma – con l’incrementare dei tentativi – ad ottimizzare la soluzione crittografica per proteggere i messaggi, un compito portato a termine senza che fosse stata programmata con un codice ad hoc.  

SMART CITY: UNA CITTÀ INTELLIGENTE E SOSTENIBILE

SMART CITY: UNA CITTÀ INTELLIGENTE E SOSTENIBILE

Una Smart City è una città intelligente che riesce a spendere meno e meglio senza abbassare la quantità e la qualità dei servizi forniti a cittadini e imprese, migliorando la disposizione dei servizi in città perché siano raggiungibili, usufruibili da remoto attraverso il proprio smartphone, con lo scopo di sprecare meno energia possibile. Una città si definisce “Smart”, intelligente, quando gli investimenti nel capitale umano, sociale, nell’innovazione tecnologica e nelle infrastrutture di comunicazione alimentano lo sviluppo sostenibile e la qualità della vita. Attualmente secondo l’Alexandra Institute il 62 % dei progetti di Smart City nel mondo sono focalizzati su trasporti, edifici e connettività. Il concetto di città intelligente riguarda la realizzazione di processi di vita quotidiana supportati da moderne tecnologie e gli ambiti di applicazione sono perciò i più vari: Sanità, Lavoro, Trasporti, Logistica, Informazione, Giustizia, Istruzione, Ambiente (inquinamento e rifiuti), Edilizia, Sicurezza (Safety&Security), Pubblica amministrazione, Energia (consumi e inquinamento), Emergenza, Commercio, Turismo, Beni culturali (opere d' arte e musei), ecc. Ad oggi, i progetti presentati sono diversi, considerando che in campo sono scesi i giganti del settore IT come Google, Apple, IBM, Microsoft. Ecco due esempi: Google Car: Droni che consegnano a destinazione buste e pacchi in piena autonomia (ogni oggetto potrà essere tracciato attraverso una semplice app): Su cosa è basata Per realizzare una Smart City occorre ricorrere al paradigma dell’Internet of Things, utilizzando una combinazione di tecnologie di cui : infrastruttura e applicazione. L'infrastruttura riguarda la componente fisica del sistema che a sua volta può,  sempre con estrema sintesi, essere composta da due elementi: i sensori e la rete di telecomunicazioni. I sensori sono gli elementi che raccolgono dati dall’ambiente con quale interagiscono e li rendono fruibili attraverso  la rete. Invece l'applicazione, che tipicamente rappresenta la parte software, è l'elemento che raccoglie i dati dai sensori, li elabora, produce dei dati in output in base ai quali si effettuano delle decisioni. Un esempio degli strati dell’infrastruttura di una Smart City:                La struttura logica di una Smart City si articola su quattro strati fondamentali: -L'infrastruttura di base come fattore abilitante per la costruzione di una città; -Una rete di sensori tecnologici interoperabili, nell'ottica dell'Internet of Things, per raccogliere i big data della città e per controllarne le infrastrutture da remoto; -Una delivery platform per l'elaborazione e la valorizzazione dei big data del territorio; -Una serie di applicazioni e servizi a valore aggiunto per la città. Quindi la rete di sensori è conosciuta come Wireless Sensor Network (WSN), costituita da un grande numero di nodi (anche centinaia o migliaia) posizionati in maniera sparsa nello spazio, o anche mobili, ed interconnessi tra loro. I sensori possono essere di ogni tipo. Una caratteristica fondamentale che possiede tale rete è quindi l'eterogeneità. Inoltre l'eterogeneità dei sensori dà a un sistema di controllo un quadro totale dell'ambiente, permettendo il monitoraggio e quindi l'automazione di un maggior numero di attività.

COS’È IL PAGERANK?

COS’È IL PAGERANK?

Il PageRank è un algoritmo di Link Analysis Ranking, basato sulla formula matematica: Questo algoritmo assegna “un peso numerico ad ogni elemento di un insieme di documenti ipertestuali, con lo scopo di misurare la sua importanza relativa all'interno della serie”. In altre parole, l’algoritmo di Google è la formula che analizza e determina la posizione di un sito web all’interno di una ricerca effettuata su Google stesso, o più semplicemente, un metodo per ordinare i risultati forniti dai motori di ricerca dal più rilevante al meno rilevante. E’ doveroso precisare che l’idea di un algoritmo di questo tipo è venuta ad un italiano: Massimo Marchiori, ideatore del motore di ricerca Hyper Search che basava i risultati non soltanto sui punteggi delle singole pagine, ma anche sulla relazione che lega la singola pagina col resto del web. Questo motore di ricerca, ha aperto la strada agli attuali motori di ricerca, in particolare a Google. Perché è nato il PageRank? Tra le milioni di pagine web presenti su Internet, la stragrande maggioranza delle persone che effettua delle ricerche sui motori di ricerca, non va al di là della prima pagina. Questo avvalora il fatto che qualsiasi gestore di un sito ambisce al posizionamento nella prima pagina di Google, da qui nasce la necessità di adottare dei criteri per determinare la rilevanza di una pagina web, che non siano manipolabili dal proprietario di quella pagina. Si parla di fattori SEO off page, cioè fattori esterni alla pagina, tra i più importanti troviamo: -I link provenienti dagli altri siti (e di conseguenza il PageRank ricevuto) -Gli apprezzamenti positivi delle persone che effettuano le ricerche -Come funziona il PageRank? Quando un utente inserisce una query, i nostri computer cercano delle pagine corrispondenti nell'indice, quindi restituiscono i risultati più pertinenti. La pertinenza viene stabilita tenendo in considerazione oltre 200 fattori, uno dei quali è il PageRank di una pagina specifica, quest’ultimo associa ad ogni pagina web un valore da 0 a 10.  Quando una pagina viene citata da altri siti mediante un link, in pratica è come se ricevesse un voto e di conseguenza aumenta il suo PageRank. Di quanto aumenta? Dipende dal PageRank del sito che inserisce il link e dal numero di link in uscita di quel sito. Le pagine web appena pubblicate hanno un valore pari a 0. Ogni 3 o 4 mesi però, Google aggiorna il valore del PageRank per ogni sito. Il valore può aumentare o diminuire in base ad alcuni criteri. Aumenta se il sito viene citato da alti siti, diminuisce in caso di penalizzazioni. Il segreto dell’algoritmo di Google. L’algoritmo di Google con il tempo è diventato molto più sofisticato e la versione più recente deve valutare molti fattori che prima non esistevano, per esempio: i social networks, lo spam, la duplicazione dei contenuti e la crescita esponenziale dei siti web. Rimane un algoritmo segretissimo: conoscere l’algoritmo di Google significherebbe capire esattamente quanto peso Google attribuisce ad ogni elemento di un sito per determinare la sua classifica all’interno delle ricerche effettuate da parte degli utenti. Esempi di pagine con un buon PageRank Wikipedia ha un PageRank pari a 7 per la versione italiana e pari a 9 per la versione internazionale. Infatti quando cerchiamo qualcosa su Google, quasi sempre troviamo tra i primi risultati una pagina di Wikipedia. Ovviamente il PageRank è fondamentale ma non è tutto. Infatti alcune pagine sono posizionate meglio di altre pur avendo un PageRank più basso. L’obiettivo di Google è migliorare l'esperienza degli utenti identificando i link di tipo spam e altre prassi che influiscono negativamente sui risultati di ricerca. I tipi migliori di link sono quelli basati sulla qualità dei contenuti.  

RIVOLUZIONE CLOUD

RIVOLUZIONE CLOUD

Il “cloud” ha rappresentato una rivoluzione – tuttora in corso – nel mondo di Internet, sia per le persone che per le aziende. Perchè? Semplice: grazie al cloud, le persone e le aziende possono ora accedere a programmi e servizi tramite Internet che altrimenti richiederebbero ingenti risorse per funzionare. Questo è il cosiddetto “cloud computing”: l’offerta/fruizione di applicazioni e servizi tramite internet. Queste applicazioni sono installate in potenti servers ospitati in grandi data centers e sfruttano la potenza dei servers (e reti di servers) per operazioni che non sarebbero facilmente realizzabili se non a grandi spese. E’ il “cloud computing” a permettere alle persone ed alle aziende – anche alle aziende di piccolissime dimensioni – di accedere gratuitamente e bassissimi costi a programmi e servizi in passato accessibili soltanto a grandi aziende che avevano risorse per investire in un parco hardware e software e nel personale necessario. Un’azienda che vende prodotti potrebbe ad esempio aver bisogno di un programma di gestione delle vendite (come SalesForce) o di CRM (come Sage). Prima del cloud un’azienda avrebbe dovuto acquistare la costosa licenza per l’utilizzo del software, e poi mettere in piedi un team di esperti hardware e software per installare, configurare, testare, eseguire, proteggere, aggiornare il programma una volta acquistato. Ovviamente, piccole e medie aziende non avevano le risorse per poterlo fare o per farlo per tutti i programmi di cui avevano bisogno. Oggi invece, grazie al “cloud computing”, le aziende interessate a specifici servizi semplicemente affittano il servizio via cloud o pagano a consumo, sempre comunque accedendo tramite il cloud al servizio. Il programma che permette la fruizione del servizio ed i dati contenuti in esso sono accessibili via Internet all’azienda, ed eventualmente ai suoi utenti o clienti. I vantaggi del cloud per le aziende sono numerosi. Il fornitore del servizio cloud, chiamato “hosting service provider“, gestisce tutto ciò che riguarda hardware e software al posto dell’azienda. L’azienda accede al servizio e ai suoi dati via Internet, e si può così focalizzare soltanto sul proprio business, dimenticandosi di tutto il lato tecnico. Non si deve preoccupare più ad esempio di installare o aggiornare il programma. Inoltre, l’azienda può pagare solo le funzionalità necessarie: se non serve avere una specifica funzionalità, il costo del servizio è più basso. Gli aggiornamenti sono automatici, la scalabilità verso l’alto o verso il basso è semplice, e i dati sono duplicati in più data centers. Anche in caso di guasti tecnici o attacchi di hackers ai servers di un data center, l’hosting provider può recuperare e duplicare nuovamente i tuoi dati dai servers negli altri data centers. Ovviamente, questi vantaggi valgono anche per gli utenti privati. Quando ti affidi ad esempio ad un servizio cloud per archiviare i tuoi dati, non ti devi preoccupare della possibile perdita dei dati: sai che vengono duplicati più volte in più sedi geografiche diverse. E per molte delle tue attività quotidiane che svolgi tramite computer, ad oggi non sei obbligato a comprare un programma, ad installarlo, ad aggiornarlo, ad avere un computer potente per poterlo usare o un computer capiente per conservare tutti i dati che man mano accumuli nel tempo. E’ per questo che numerosissime attività oggi sono possibili per tutti, mentre in passato erano possibili solo a fronte di grandi spese e del possesso di computer potenti. E la tendenza è questa: sempre più il tuo computer si svuoterà di programmi e funzionerà invece solo come interfaccia per l’accesso a servizi cloud. E sempre più i tuoi dati, la tua musica, i tuoi video, i tuoi documenti saranno depositati in servers accessibili via cloud invece che nel computer di casa o in chiavette usb o in hard disk esterni. E non pensare che il cloud sia utile solo per dati di questo tipo. Ci sono infinite possibili utili applicazioni del cloud in situazioni di vita reali. Pensa invece ad esempio alla possibilità per un dottore, in caso di emergenza medica, di accedere alla tua cartella sanitaria via cloud per capire se sei allergico o meno a certi farmaci o effettuare una diagnosi migliore (sistemi nazionali di Electronic Health Records sono già disponibili in numerosi stati). Le grandi aziende di Internet sono state tra le prime a cavalcare la rivoluzione del cloud. Google si è lanciato nel cloud computing con numerosi servizi come Gmail e Google Docs. Anche lo sviluppo di Android è fortemente orientato al cloud, permettendoti di accedere alla posta elettronica, ai tuoi documenti direttamente dal dispositivo (smartphone o Tablet) su cui è installato. Google ha anche investito pesantemente in computers come Chromebook, che si appoggiano al cloud per quasi ogni possibile attività che tu voglia fare o di cui il computer ha bisogno per la manutenzione, l’aggiornamento e la sicurezza. Microsoft ha sviluppato la piattaforma Azure, puntando principalmente sui servizi per le piccole e medie imprese, e sta anche modificando la propria offerta software spingendo verso il cloud. L’ultima versione di Office 365 si appoggia al cloud per salvare i tuoi file direttamente nel cloud e renderli sempre disponibili dovunque, tramite connessione Internet. Anche Apple è stata tra i pionieri del cloud: non a caso iTunes, che sfrutta il cloud per salvare i tuoi file e gusti musicali, è la piattaforma leader nel mercato della musica digitale. Il cloud può essere usato per il backup dei tuoi dati, per l’archiviazione (il cosiddetto cloud storage), per la condivisione dei tuoi file con i tuoi contatti, per la collaborazione online su documenti, e per la gestione delle tue foto e dei tuoi file audio e video.

D-WAVE 2X - IL NUOVO COMPUTER QUANTISTICO DI GOOGLE

D-WAVE 2X - IL NUOVO COMPUTER QUANTISTICO DI GOOGLE

Da circa due anni, il team Google Quantum AI ha avviato avanzate ricerche per dimostrare che un computer quantistico è in grado di risolvere problemi di ottimizzazione ad una velocità molto superiore a quella dei computer tradizionali. L’azienda di Mountain View ha ora pubblicato i primi risultati positivi ottenuti con il D-Wave 2X, ospitato dalla NASA nell’Ames Research Lab in California. Un computer quantistico è un nuovo dispositivo per il trattamento e l’elaborazione delle informazioni che per eseguire operazioni si basa sulla meccanica quantistica. La meccanica quantistica o fisica quantistica è la teoria fisica che descrive il comportamento della materia, della radiazione e le reciproche interazioni con particolare riguardo ai fenomeni caratteristici della scala di lunghezza o di energia atomica e subatomica. Invece di utilizzare i bit dei classici computer, convenzionalmente indicati dalle cifre 0 ed 1, un computer quantistico utilizza i qubit, ovvero quantum bit o bit quantistico. Le informazioni vengono dunque codificate dallo stato quantistico di una particella o di un atomo. Tuttavia, né la manipolazione controllata di atomi e particelle né la loro reciproca comunicazione né infine la stesura di algoritmi adatti allo scopo sono obiettivi facili da raggiungere nel calcolo quantistico. Il D-Wave 2X è un sistema di calcolo quantistico costituito da un processore con oltre 1.000 qubit che opera ad un temperatura prossima alla zero assoluto. Il computer può quindi valutare tutte le 21000 possibili soluzioni simultaneamente, trovando quella ottimale con prestazioni 600 volte superiori a quelle dei computer tradizionali. Il chip, denominato quantum annealer, viene sfruttato per risolvere problemi di ottimizzazione, molto frequenti nel campo del machine learning e dell’intelligenza artificiale. Google afferma che per problemi che coinvolgono quasi 1.000 variabili binarie, il quantum annealing del computer quantistico supera nettamente il simulated annealing del computer tradizionale con prestazioni circa 100 milioni di volte superiori. [youtube]https://www.youtube.com/watch?v=-LhPE6FpJYk[/youtube] Ovviamente c’è ancora molto da lavorare in questa tecnologia, ma siamo fiduciosi nello sviluppo e miglioramento di questa nuova tecnologia che può portare a grossi passi in avanti ad applicazioni come l’intelligenza artificiale, la simulazione di intere missioni spaziali e la gestione del traffico aereo.

Visualizzo 1-9 di 18 elementi.