Dasir Blog

Software

KILOCORE, CPU CON 1000 CORE INDIPENDENTI

KiloCore è il primo processore al mondo con 1000 core indipendenti, in grado di eseguire oltre 115 miliardi di operazioni al secondo con un consumo inferiore ad 1 Watt. Questo processore, messo a punto dall’Università della California , in collaborazione con IBM, è stato presentato all’ultimo Simposio Tecnologia e Circuiti VLSI, che si è tenuto alle Hawaii. I ricercatori della Università della California hanno recentemente presentato KiloCore, una CPU con 1000 core programmabili in modo indipendente, con un’elevata efficienza energetica. Chip con più di un processore sono da anni una realtà, tanto che dentro la gran parte dei nostri computer si possono trovare anche 12 processori che lavorano in maniera sincronizzata. Il nuovo chip, non ha solo un numero record di chip ma rappresenta una possibile rivoluzione nel loro funzionamento, e riesce a far lavorare i suoi processori in modo indipendente l'uno dall'altro, qualcosa di simile a una 'rete' di computer separati. Gli scopi per i quali viene utilizzato sono sempre gli stessi degli attuali multicore ma offrendo performance migliori: elaborare video, cifrare e decifrare dati e in ambiti scientifici dove applicazioni a elevato multithreading sono in grado di trarre vantaggio della presenza di più core. Per sfruttare il processore è ad ogni modo necessario software scritto ad hoc, in grado di trarre vantaggio dalla parallelizzazione. Quando deve eseguire un compito, KiloCore 'scompone' il tutto affidando singole parti di applicazioni ai vari processori che una volta completato il lavoro condividono i dati per ricostruire il risultato finale. Quando non sono necessari i singoli processori si disattivano permettendo così un enorme risparmio energetico, garantendo un'efficienza 100 volte migliore di quella di un tradizionale processore multiplo. La frequenza massima è pari a 1,78 GHz e ogni core può trasferire dati da se stesso ad un altro, senza alcuna memoria condivisa. Di fatto, i 1000 core sono possono eseguire 115 miliardi di operazioni al secondo, consumando solamente 0,7 Watt Avendo una 'logica' differente dai chip tradizionali, i ricercatori hanno dovuto sviluppare un ventaglio di applicazioni ad hoc, tra cui software per l'elaborazione delle immagini, dei video e strumenti per sviluppatori che potranno lavorare alla creazione di nuove applicazioni. KiloCore è stato sviluppato per sostituire i microchip attuali ma i costi e i tempi per una sua futura commercializzazione non sono stati definiti e di certo serviranno ancora alcuni anni prima che arrivi sul mercato.

IL RUOLO DEI COMPILATORI NELLE ARCHITETTURE RICONFIGURABILI

L'hardware riconfigurabile è di fatti una realtà in continua evoluzione e crescita. I dispositivi FPGA trovano sempre maggior impiego nelle diverse realtà tecnologiche, quali ad esempio datacenter e IoT. La riconfigurazione dell'hardware comporta diversi vantaggi in termini prestazionali. Infatti un FPGA può essere programmato in due modi diversi tali da consentire di rispettare gli stessi requisiti funzionali con performance diverse. Tra queste gioca un ruolo fondamentale il consumo di potenza, argomento ampiamente di attualità visto l'utilizzo sempre più frequente e frenetico di dispositivi mobili che necessitano di un'alimentazione tale da garantirne l'uso per almeno un'intera giornata. Tra le possibilità che un FPGA offre, in base alla sua caratteristica di riconfigurabilità, c'è quella di progettare un'architettura fortemente dinamica capace di riconfigurarsi continuamente in base al tipo di applicazione che deve essere processata. Semplificando con un esempio, si pensi alla possibilità di avere un elemento di processamento che si comporti come una GPU quando si elaborano applicazioni fortemente grafiche e come un processore in caso di elaborazioni che richiedono più logica di controllo che processamento massivo. Affinché tale architettura possa essere realizzata è necessario prevedere un meccanismo capace di collegare la parte software delle diverse applicazioni con quella hardware che è riconfigurabile. Tale strato è identificabile attraverso un compilatore che deve essere capace di tradurre nella maniera corretta ed ottimizzata le applicazioni in codice macchina, interpretabile dall'architettura sottostante che essendo riconfigurabile cambierà di volta in volta. Esistono delle toolchain di compilatori che consentono la realizzazione di questo modello. Tali toolchain prevedono sostanzialmente due componenti fondamentali che sono la parte di front-end e quella di back-end. In particolare, la prima consente la traduzione del codice sorgente in un linguaggio di rappresentazione intermedia, definito in genere dalla toolchain stessa. In questo modo è possibile ottenere la stessa rappresentazione per sorgenti provenienti da linguaggi di programmazione differenti. Ovviamente è necessario che la toolchain preveda un compilatore di front-end per ognuno dei linguaggi di programmazione sorgenti supportati. La parte di back-end invece, partendo dalla rappresentazione intermedia che viene prodotta dal componente di front-end, deve produrre del linguaggio macchina (sequenze di bit!) interpretabile dall'architettura sottostante. Dal momento che la nostra architettura è di tipo riconfigurabile è necessario implementare la parte di back-end del compilatore in maniera parametrica, ovvero capace di conoscere di volta in volta i parametri che descrivono in modo completo l'architettura per cui deve essere prodotto il codice macchina. Le piattaforme eterogenee e le architetture riconfigurabili saranno probabilmente la nuova frontiera da perseguire per ottimizzare le performance nei sistemi di elaborazione. Pertanto, in un certo senso, l'oggettiva distanza che esiste tra hardware e software potrebbe ridursi attraverso l'implementazione di piattaforme che richiedono hardware descritto via software e software tradotto in base all'hardware sottostante.

WORDSMITH, IL SOFTWARE CHE AUTOGENERA ARTICOLI

I robot stanno diventando sempre più presenti nella nostra vita quotidiana...Chi avrebbe mai pensato che un software sarebbe stato in grado di sostituire le persone nella creazione di articoli? Ma oltre a rappresentare un aiuto reale, ora rischiano di diventare addirittura una minaccia. La compagnia tecnologica Automated Insights sta sviluppando il software Wordsmith Beta, che sarebbe in grado di scrivere articoli giornalistici al posto degli uomini. Detto in poche parole, la figura del giornalista potrebbe essere sostituita da un robot “scrittore”. Wordsmith è un programma che si basa sull’intelligenza artificiale per generare articoli o recensioni personalizzabili. L’idea alla base di Wordsmith è quella di creare articoli e recensioni, candidandosi ad un vero e proprio programma in grado di sostituire i giornalisti e gli scrittori. Ma qual è il principio di funzionamento di Wordsmith? L’azienda creatrice ha sfruttato i notevoli passi avanti realizzati dall’intelligenza artificiale. Basti pensare, non a caso, al supercomputer Watson di IBM, in grado di analizzare immense moli di dati e riuscire a imparare delle stesse. Di fatto, Wordsmith sembra essere una piattaforma “intelligente” in grado di generare articoli e recensioni personalizzabili. Tuttavia, entrando all’interno del sito della società creatrice, si scopre che Wordsmith deve aver alcuni dati di partenza. Grazie a fonti solide, il programma è in grado di autogenerare testi. Tuttavia, il secondo passaggio richiede sempre un intervento umano. Infatti, Wordsmith richiede un passaggio intermedio in cui personalizzare il testo e lo stile di scrittura. Se da un lato questo nuovo software che non può ancora competere con i giornalisti e gli scrittori, dall’altro rappresenta un importante strumento per automatizzare una parte del processo, soprattutto quando vi sono importanti moli di dati da analizzare. Possiamo dire con certezza che la creazione di un programma di scrittura completamente automatizzata in grado di sostituire l’uomo è ancora un’utopia. Scrivere un testo è un’azione complessa per un computer e riuscire ad emulare il linguaggio, lo stile di scrittura ed il pensiero sembra essere veramente impossibile, perché nessun robot può riversare su quello che scrive le proprie emozioni, trovandosi logicamente impossibilitato a provarle. Il robot finora è stato impiegato in articoli statistici e finanziari, ed ora la società sta pensando di allargare i propri orizzonti. I ricercatori della compagnia informatica Automated Insights, stanno sviluppando un modello per creare articoli molto più complessi e incentrati sulle più disparate tematiche di attualità, introducendo attraverso tecniche basate sull’ intelligenza artificiale un alto grado di personalizzazione nella stesura del testo, facendo percepire al lettore le sensazioni ed emozioni del “giornalista”. Secondo uno studio condotto dal ricercatore Christer Clerwall, le persone tenderebbero mediamente a non distinguere tra un articolo prodotto da Wodrsmith Beta e uno scritto invece da un giornalista in carne ed ossa, il che getta inquietanti dubbi sulla nostra assuefazione alla tecnologia e su quanto i versanti strettamente teorici finiranno per prevalere presto sulla nostra componente emotiva.  

“NATIK”: IL PROGETTO DI RICERCA NATO PER DETERMINARE LA FATTIBILITÀ DI DATA CENTER SOTTOMARINI.

Redmond, casa Microsoft, siamo nei primi mesi del 2013. Ad alcuni dipendenti del settore Ricerca & Sviluppo del colosso dei servers, viene in mente l’idea di realizzare dei data center sottomarini. Potrebbe sembrare una pazzia o uno scherzo…invece nel 2014 parte lo sviluppo del primo prototipo di “Natik” e ad Agosto del 2015 il primo test. I data center del futuro potrebbero vivere sott’acqua non solo perché è l’habitat ideale per questo tipo di tecnologia ma anche perché ci sarebbe il vantaggio di rendere le infrastrutture più vicine in termine geografici agli utilizzatori finali. Oggi siamo abituati ad utilizzare svariati tipi di componenti elettronici e sappiamo bene che quando sono sotto stress e li mettiamo a lavorare intensamente, smartphones, notebook e dispositivi vari iniziano ad aumentare la loro temperatura. Ora pensate ai data center in cui ci sono migliaia di dispositivi che vanno a pieno regime, è ovvio che questi hanno bisogno di un sistema di raffreddamento che abbassi la temperatura ambientale ed è proprio questo il problema principale di un data center. Posizionando i data center in fondo al mare si può dire addio all’aria condizionata e con delle turbine che sfruttano i movimenti dell’acqua si può realizzare il raffreddamento con energia pulita, rinnovabile a costo zero! Il colosso di Redmond oggi gestisce un parco data center che va oltre le cento unità e ha spende in manutenzione ogni anno circa 15 miliardi di dollari per un sistema globale che offre oltre tantissimi servizi online in tutto il mondo. In questo modo si può abbassare il primario costo di un data center. Natik è una capsula d’acciaio di circa due metri e mezzo di diametro che è stata immersa a largo della costa Californiana, funzionando per oltre 100 giorni, sorprendendo gli stessi ingegneri che l’avevano progettata. L’utilizzo di data center subacquei avrebbe anche benefici logistici, oltre che quelli relativi alla temperatura. La maggior parte della popolazione, infatti, vive generalmente lontana dai server, che sono localizzati in zone poco popolate e quindi a bassa densità. Posizionare i data center nell’oceano e quindi più vicino ai centri abitati, aumenterebbe la velocità di trasferimento dei dati e anche della navigazione in rete degli utenti (oltre che dalla propria connessione dipende anche dal tempo di risposta del server). Anche le tempistiche sulla realizzazione e la posa in opera di un nuovo impianto sarebbero di gran lunga più vantaggiosi, infatti per costruire una capsula marina, servirebbero circa 90 giorni, contro i due anni necessari per la realizzazione di un data center “classico”. Non mancano all'orizzonte molti ostacoli che i ricercatori di Microsoft tenteranno di superare. Uno tra tutti la difficoltà di manutenzione da parte di operatori umani: per questo motivo le capsule dovrebbero essere in grado di rimanere al 100% operative senza manutenzione diretta per almeno 5 anni. Non mancano interrogativi sull'impatto ambientale che un'operazione del genere potrebbe comportare, soprattutto riguardo il riscaldamento dell'ambiente marino. Secondo i primi test condotti da Microsoft, le capsule genererebbero solo un "quantitativo estremamente piccolo" di calore, poiché l'energia che utilizzano è quella delle correnti marine e non ci sarebbe dispersione di calore, a parte quella legata alla conversione dell'energia. I ricercatori dell'azienda hanno anche registrato con sensori acustici che il ticchettio delle testine dei dischi e il fruscio delle ventole è sovrastato dal rumore di un singolo gamberetto che nuota vicino la capsula. Di seguito il link ufficiale del progetto per chi volesse approfondire e curiosare sull’argomento: http://natick.research.microsoft.com/

COMMODORE 64... “I'LL BE BACK”

“I’ll be back” (Tornerò). Prendo in prestito una mitica frase di Schwarzenegger per descrivere il ritorno di un mito come il Commodore 64. Il Commodore 64 fu uno dei primi personal computer ad entrare nelle case di tutti; il segreto del successo era dovuto al prezzo contenuto e alla facilità d’installazione: tutti sanno collegare 2 cavi. Per utilizzarlo bastava accendere la tv e fare la ricerca delle frequenze, mettere una cassetta nel mangianastri, lanciare un programma o un gioco (io ricordo nostalgicamente quello dei Motocross) ed aspettare una mezz’oretta per l’avvio.   Dopo il primo fallimento di Commodore, il famoso personal computer sembrava rinato grazie alla nuova Commodore USA, azienda che nel 2012 aveva pensato di riproporre il buon vecchio C64 con un hardware di nuova generazione e puntando su Commodore OS Vision, una distribuzione basata su Linux Mint come sistema operativo preinstallato e non il buon vecchio Basic disponibile comunque nella distribuzione grazie ad un’emulatore dedicato. A quanto pare Commodore USA ha terminato la commercializzazione dei nuovi C64 nei primi mesi del 2013, il nuovo Commodore C64 basato su Linux non è riuscito a riavere il successo riscontrato negli anni 80. A riproporre ancora una volta il mitico Commodore 64 ci pensa niente meno che Amibyte, un’azienda produttrice italiana che ha deciso di riportare in vita il C64 includendo hardware di nuova generazione e offrendo agli utenti la possibilità di poter scegliere quale sistema operativo preinstallare nel personal computer. Attualmente il nuovo Commodore C64x made in Italy è disponibile nella versione Barebone con il case in stile C64 ed una configurazione che prevede un processore AMD APU A8 o A10 oppure con processori Intel Atom o ancora Core i3, i5 o i7 dotato di lettore / masterizzatore CD/DVD o Blu Ray, Card Reader ecc. I nuovi Commodore 64 prodotti da Amibyte vengono rilasciati con Commodore OS Vision oppure opzionalmente con Microsoft Windows il tutto a partire da 649 Euro fino ad arrivare ai 1299 Euro per il C64x con Intel Core i7. Alla fine è tornato!

RIVOLUZIONE CLOUD

Il “cloud” ha rappresentato una rivoluzione – tuttora in corso – nel mondo di Internet, sia per le persone che per le aziende. Perchè? Semplice: grazie al cloud, le persone e le aziende possono ora accedere a programmi e servizi tramite Internet che altrimenti richiederebbero ingenti risorse per funzionare. Questo è il cosiddetto “cloud computing”: l’offerta/fruizione di applicazioni e servizi tramite internet. Queste applicazioni sono installate in potenti servers ospitati in grandi data centers e sfruttano la potenza dei servers (e reti di servers) per operazioni che non sarebbero facilmente realizzabili se non a grandi spese. E’ il “cloud computing” a permettere alle persone ed alle aziende – anche alle aziende di piccolissime dimensioni – di accedere gratuitamente e bassissimi costi a programmi e servizi in passato accessibili soltanto a grandi aziende che avevano risorse per investire in un parco hardware e software e nel personale necessario. Un’azienda che vende prodotti potrebbe ad esempio aver bisogno di un programma di gestione delle vendite (come SalesForce) o di CRM (come Sage). Prima del cloud un’azienda avrebbe dovuto acquistare la costosa licenza per l’utilizzo del software, e poi mettere in piedi un team di esperti hardware e software per installare, configurare, testare, eseguire, proteggere, aggiornare il programma una volta acquistato. Ovviamente, piccole e medie aziende non avevano le risorse per poterlo fare o per farlo per tutti i programmi di cui avevano bisogno. Oggi invece, grazie al “cloud computing”, le aziende interessate a specifici servizi semplicemente affittano il servizio via cloud o pagano a consumo, sempre comunque accedendo tramite il cloud al servizio. Il programma che permette la fruizione del servizio ed i dati contenuti in esso sono accessibili via Internet all’azienda, ed eventualmente ai suoi utenti o clienti. I vantaggi del cloud per le aziende sono numerosi. Il fornitore del servizio cloud, chiamato “hosting service provider“, gestisce tutto ciò che riguarda hardware e software al posto dell’azienda. L’azienda accede al servizio e ai suoi dati via Internet, e si può così focalizzare soltanto sul proprio business, dimenticandosi di tutto il lato tecnico. Non si deve preoccupare più ad esempio di installare o aggiornare il programma. Inoltre, l’azienda può pagare solo le funzionalità necessarie: se non serve avere una specifica funzionalità, il costo del servizio è più basso. Gli aggiornamenti sono automatici, la scalabilità verso l’alto o verso il basso è semplice, e i dati sono duplicati in più data centers. Anche in caso di guasti tecnici o attacchi di hackers ai servers di un data center, l’hosting provider può recuperare e duplicare nuovamente i tuoi dati dai servers negli altri data centers. Ovviamente, questi vantaggi valgono anche per gli utenti privati. Quando ti affidi ad esempio ad un servizio cloud per archiviare i tuoi dati, non ti devi preoccupare della possibile perdita dei dati: sai che vengono duplicati più volte in più sedi geografiche diverse. E per molte delle tue attività quotidiane che svolgi tramite computer, ad oggi non sei obbligato a comprare un programma, ad installarlo, ad aggiornarlo, ad avere un computer potente per poterlo usare o un computer capiente per conservare tutti i dati che man mano accumuli nel tempo. E’ per questo che numerosissime attività oggi sono possibili per tutti, mentre in passato erano possibili solo a fronte di grandi spese e del possesso di computer potenti. E la tendenza è questa: sempre più il tuo computer si svuoterà di programmi e funzionerà invece solo come interfaccia per l’accesso a servizi cloud. E sempre più i tuoi dati, la tua musica, i tuoi video, i tuoi documenti saranno depositati in servers accessibili via cloud invece che nel computer di casa o in chiavette usb o in hard disk esterni. E non pensare che il cloud sia utile solo per dati di questo tipo. Ci sono infinite possibili utili applicazioni del cloud in situazioni di vita reali. Pensa invece ad esempio alla possibilità per un dottore, in caso di emergenza medica, di accedere alla tua cartella sanitaria via cloud per capire se sei allergico o meno a certi farmaci o effettuare una diagnosi migliore (sistemi nazionali di Electronic Health Records sono già disponibili in numerosi stati). Le grandi aziende di Internet sono state tra le prime a cavalcare la rivoluzione del cloud. Google si è lanciato nel cloud computing con numerosi servizi come Gmail e Google Docs. Anche lo sviluppo di Android è fortemente orientato al cloud, permettendoti di accedere alla posta elettronica, ai tuoi documenti direttamente dal dispositivo (smartphone o Tablet) su cui è installato. Google ha anche investito pesantemente in computers come Chromebook, che si appoggiano al cloud per quasi ogni possibile attività che tu voglia fare o di cui il computer ha bisogno per la manutenzione, l’aggiornamento e la sicurezza. Microsoft ha sviluppato la piattaforma Azure, puntando principalmente sui servizi per le piccole e medie imprese, e sta anche modificando la propria offerta software spingendo verso il cloud. L’ultima versione di Office 365 si appoggia al cloud per salvare i tuoi file direttamente nel cloud e renderli sempre disponibili dovunque, tramite connessione Internet. Anche Apple è stata tra i pionieri del cloud: non a caso iTunes, che sfrutta il cloud per salvare i tuoi file e gusti musicali, è la piattaforma leader nel mercato della musica digitale. Il cloud può essere usato per il backup dei tuoi dati, per l’archiviazione (il cosiddetto cloud storage), per la condivisione dei tuoi file con i tuoi contatti, per la collaborazione online su documenti, e per la gestione delle tue foto e dei tuoi file audio e video.

D-WAVE 2X - IL NUOVO COMPUTER QUANTISTICO DI GOOGLE

Da circa due anni, il team Google Quantum AI ha avviato avanzate ricerche per dimostrare che un computer quantistico è in grado di risolvere problemi di ottimizzazione ad una velocità molto superiore a quella dei computer tradizionali. L’azienda di Mountain View ha ora pubblicato i primi risultati positivi ottenuti con il D-Wave 2X, ospitato dalla NASA nell’Ames Research Lab in California. Un computer quantistico è un nuovo dispositivo per il trattamento e l’elaborazione delle informazioni che per eseguire operazioni si basa sulla meccanica quantistica. La meccanica quantistica o fisica quantistica è la teoria fisica che descrive il comportamento della materia, della radiazione e le reciproche interazioni con particolare riguardo ai fenomeni caratteristici della scala di lunghezza o di energia atomica e subatomica. Invece di utilizzare i bit dei classici computer, convenzionalmente indicati dalle cifre 0 ed 1, un computer quantistico utilizza i qubit, ovvero quantum bit o bit quantistico. Le informazioni vengono dunque codificate dallo stato quantistico di una particella o di un atomo. Tuttavia, né la manipolazione controllata di atomi e particelle né la loro reciproca comunicazione né infine la stesura di algoritmi adatti allo scopo sono obiettivi facili da raggiungere nel calcolo quantistico. Il D-Wave 2X è un sistema di calcolo quantistico costituito da un processore con oltre 1.000 qubit che opera ad un temperatura prossima alla zero assoluto. Il computer può quindi valutare tutte le 21000 possibili soluzioni simultaneamente, trovando quella ottimale con prestazioni 600 volte superiori a quelle dei computer tradizionali. Il chip, denominato quantum annealer, viene sfruttato per risolvere problemi di ottimizzazione, molto frequenti nel campo del machine learning e dell’intelligenza artificiale. Google afferma che per problemi che coinvolgono quasi 1.000 variabili binarie, il quantum annealing del computer quantistico supera nettamente il simulated annealing del computer tradizionale con prestazioni circa 100 milioni di volte superiori. [youtube]https://www.youtube.com/watch?v=-LhPE6FpJYk[/youtube] Ovviamente c’è ancora molto da lavorare in questa tecnologia, ma siamo fiduciosi nello sviluppo e miglioramento di questa nuova tecnologia che può portare a grossi passi in avanti ad applicazioni come l’intelligenza artificiale, la simulazione di intere missioni spaziali e la gestione del traffico aereo.

COME LE TECNOLOGIE DI INFOTAINMENT AUMENTERANNO LA SICUREZZA DELLE AUTO

Nel settore dell’automotive non è certo una novità il binomio tra tecnologia e sicurezza ma secondo l’ultimo osservatorio di UnipolSai 2015, la percezione dell’utilità d’utilizzo delle nuove tecnologie per migliorare la sicurezza degli occupati delle auto è aumentata drasticamente. Oggi, le auto sono sempre più connesse ed in futuro potranno interagire con le infrastrutture stradali e direttamente tra loro per scambiarsi dati come velocità, posizione, manovre di pericolo e tantissimo altro ancora. Grazie al sapiente utilizzo di sistemi di infotainment, dei sistemi di navigazione GPS e dei supporti alla connettività WiFi, le auto possono acquistare sicurezza offrendo agli occupanti un maggiore comfort durante gli spostamenti. Le auto, trasformante in una sorta di computer su quattro ruote, forniscono agli occupanti, per esempio, informazioni come lo stato di “salute” dell’auto, segnalando, cioè, eventuali problemi. Oltretutto grazie alla connettività ad Internet, è possibile rimanere aggiornati sul traffico piuttosto che sul meteo o su eventuali incidenti. Sarà possibile dunque rendere il proprio viaggio più confortevole ed al riparo da imprevisti. Grazie alla connettività ed ai servizi cloud, i moderni sistemi di infotainment possono scaricare in tempo reale dati riguardati le condizioni di traffico come eventuali code ed incidenti. Grazie poi ai nuovi sensori ottici sarà possibile dialogare con le infrastrutture stradali e con le auto vicine segnalando in anticipo situazioni di emergenza, eventuali ostacoli e tanto altro ancora. Le auto connesse, dei veri e propri computer su quattro ruote, forniscono anche informazioni puntuali sullo stato del veicolo avvisando gli occupanti delle manutenzioni e di tutti gli eventuali problemi di natura tecnica. Chi guida potrà, dunque, delegare una parte delle sue responsabilità a questi software e servizi che come dei fedeli copiloti aiuteranno in tutte le fasi della guida garantendo maggiore sicurezza e contestualmente anche minore stress. Le moderne auto connesse possono essere configurate anche per adattarsi ai diversi occupanti. Per esempio, i genitori potranno programmare l’auto affinché non superi un certo livello di prestazioni in maniera tale che un giovane neo patentato non debba incorrere in eccessi di velocità. Ma l’aspetto fondamentale dei moderni sistemi di infotainment è la loro espandibilità. In altri termini, grazie ai servizi cloud ed all’accesso alla rete, gli utenti potranno sempre aggiornarli per renderli più affidabili e ricchi di funzionalità. Inoltre, grazie agli sviluppatori, i moderni sistemi di infotainment possono essere dotati di applicazioni aggiuntive che possono migliorare i servizi a disposizione dell’utente. Di applicazioni ce ne sono di tutti i gusti, da quelle per la gestione dell’auto a quelle per l’intrattenimento. Ma l’aspetto fondamentale dei moderni sistemi di infotainment è la loro espandibilità. In altri termini, grazie ai servizi cloud ed all’accesso alla rete, gli utenti potranno sempre aggiornarli per renderli più affidabili e ricchi di funzionalità. Inoltre, grazie agli sviluppatori, i moderni sistemi di infotainment possono essere dotati di applicazioni aggiuntive che possono migliorare i servizi a disposizione dell’utente. Di applicazioni ce ne sono di tutti i gusti, da quelle per la gestione dell’auto a quelle per l’intrattenimento. Un esempio importante è stato annunciato da parte di Volkswagen, che seppur in un periodo particolare dati gli scandali sulle emissioni dei loro motori, non si ferma sul piano dell’innovazione annunciando che la maggior parte delle vetture commercializzate nel corso del 2016 a marchio Volkswagen saranno compatibili con le più recenti piattaforme di infotainment, ovvero Android Auto, Apple CarPlay e MirrorLink. Non ci resta dunque che aspettare per poterci goderci i nostri viaggi ancor più in sicurezza e comfort.

MYO, IL BRACCIALE PER CONTROLLARE... QUALSIASI COSA!

Un controller per console? Un telecomando avanzato per tutto il nostro impianto home theater? Un dispositivo domotico con cui controllare la casa?  Un controller per i droni ? MYO è tutto questo. [youtube]https://www.youtube.com/watch?v=oWu9TFJjHaM[/youtube] Dalla Thalmic Labs arriva Myo, un bracciale high tech che potrebbe rivoluzionare il concetto di motion control  (controllo tramite movimento), un pò come si fa con alcune console moderne. Il suo principio di funzionamento però è diverso, si basa infatti sugli impulsi elettrici che viaggiano nei muscoli del braccio. Myo sfrutta una combinazione di sensori di movimento e 'sensori d'attività', che percepiscono qualsiasi cambiamento e associano le gesture a precisi comandi, capta le trasmissioni elettriche nei muscoli per determinare i gesti elaborati da un processore ARM alimentato da una batteria ricaricabile. Lo scambio di dati fra Myo e il dispositivo da controllare, che sia uno smartphone, tablet o PC, avviene tramite Bluetooth a basso dispendio di energia. Potete ordinare Myo qui per $199. Il potenziale di questa, e altre tecnologie simili, è chiaramente infinito, l’unico limite è la fantasia degli sviluppatori. Infatti Myo offre SDK per le piattaforme più importanti quali Windows, Mac OS X ,iOS, Android, Unity.

Visualizzo 10-18 di 26 elementi.