Blog

Riguardo l'autore

Vincenzo D'Oriano

System Administrator e Hardware Account Manager.
Ingegnere informatico di formazione, credo che la pratica sia il miglior modo per ampliare le conoscenze. Le nuove sfide, nella vita così come nel lavoro, non mi spaventano. Con il giusto connubio tra attenzione e dedizione niente ci è precluso. Aggiusta-tutto come hobby, amo tutti gli sport.

L'autore ha scritto

5G vs. 4G: cosa sarà possibile realizzare con la nuova tecnologia

5G vs. 4G: cosa sarà possibile realizzare con la nuova tecnologia

Il 5 giugno 2019, Vodafone ha acceso le nuove antenne della rete mobile arrivando per prima in Italia sulla nuova tecnologia 5G. Analizziamo insieme i progressi rispetto la precedente tecnologia per comprendere quali sono i limiti abbattuti e le future possibilità d’applicazione. La velocità (quantità di dati che è possibile trasferire in un certo lasso di tempo) della nuova tecnologia sarà attestata, in media, intorno agli 1,4 Gbps (Giga bit per secondo) contro gli 0,4 del vecchio 4G, quindi si triplicano i dati trasferiti sulla rete in uno stesso lasso di tempo. In un mondo fatto sempre più di Cloud Storage, HD Video Streaming e Cloud Gaming sarà sempre più possibile fruire in maniera stabile di queste tipologie di servizi. La latenza (tempo di attesa per ricevere una risposta da un punto all'altro) sarà di circa 5 millisecondi contro i 30 del 4G e questo si traduce in un sensibile aumento dell’affidabilità delle comunicazioni. Basta pensare alle recenti innovazioni in campo automotive, per capire subito in che modo tale affidabilità permetta di gestire con più sicurezza tutta la parte di sviluppo, implementazione e messa in esercizio della AI (artifical intelligence) sulla guida autonoma/assistita. Il packet loss (perdita di pacchetti sulla connessione da mittente e ricevente) stimato è di circa 3 pacchetti ogni miliardo mentre l'antecedente perdeva 3 pacchetti ogni 100/1000. Ancora una volta si traduce in una maggiore affidabilità delle connessioni, fondamentale quando si parla d'intelligenza artificiale (applicata alla circolazione su strada) o per servizi ludici come il gaming di gruppo in cloud, sui dispositivi mobile. Una perdita di pacchetti così bassa rende più sicura anche tutta quella serie di applicazioni real time, come il controllo del traffico dei treni e l'automazione (in particolare legata alla sensoristica) di reti elettriche ed idriche. Insomma questa nuova implementazione di rete mobile fa ben sperare per le future connessioni ma bisognerà armarsi di dispositivi capaci di sfruttarla e sperare che, i vari distributori del mercato, la renderanno fruibile al più presto con prezzi abbordabili che permettano una diffusione capillare del nuovo 5G.

Quantum-Secured Network

Quantum-Secured Network

Un fornitore di servizi a banda larga inglese, in questi giorni, ha reliazzato un “quantum-key distribution (QKD) secured fiber internet link” impenetrabile a qualsiasi attacco hacker. Come funziona? Finora era solo possibile generare delle chiavi in maniera quantistica, inviate su infrastrutture classiche (non quantistiche). Adesso è possibile costruire una vera piattaforma di condivisione e scambio delle informazioni quantistiche, i cosiddetti qbit.  Trattasi di particelle di luce (fotoni) che trasportano chiavi di criptazione sulla stessa connessione dove viaggiano i dati. In un sistema classico le informazioni elementari (bit) possono assumere un solo stato stabile (zero o uno); in un sistema quantistico l’informazione elementare può trovarsi in una sovrapposizione di stati. Per tale motivo un sistema del genere può memorizzare più informazioni di uno classico. Perchè non è possibile hackerare tale tipo di infrastruttura? Uno dei principi di base della meccanica quantistica afferma che è impossibile misurare le proprietà di un sistema quantistico senza alterarlo irrimediabilmente quindi è facile individuare su un mezzo del genere un'eventuale intrusione. Inoltre i sistemi quantistici variano il loro stato anche se vengono clonati (no-cloning quantistico) e quindi non è nemmeno possibile copiare un tale sistema senza che l’azione sia riconosciuta immediatamente. Questa nuova frontiera permetterà di avere delle reti più veloci, affidabili e sicure. Citando il Dr. Grégoire Ribordy, CEO dell’IDQ: “Quantum communications technologies are starting to play a significant role in securing our data and communications. They add security to both backbone and access networks, in an era where the quantum computer will render vulnerable much of today’s cryptography”.

La sicurezza informatica in azienda

La sicurezza informatica in azienda

La sicurezza informatica è una delle questioni più dibattute degli ultimi tempi. Le aziende possono provare a ridurre al minimo i rischi dei loro sistemi informatici ma non è possibile avere un sistema privo di vulnerabilità. Il primo passo da fare è quello di redigere un documento di “Policy sulla sicurezza informatica” nel quale sono presenti le regole ed i comportamenti che gli utenti (dipendenti, collaboratori, consulenti, etc.) devono seguire per contrastare i rischi. Tale documento dovrebbe essere consegnato e fatto firmare ad ogni utente all’inizio del rapporto lavorativo. Il “Responsabile del Trattamento dei dati” è la figura aziendale che si occupa di redigere, far firmare e inviare via mail ogni anno tale documento. Le presenti linee guida riguardano generalmente i dispositivi (pc, tablets, smartphones, etc.), la rete aziendale, l’utilizzo del web e la posta elettronica, la gestione dei dati. Spesso molte azienda non riescono a ridurre i rischi informatici poiché non investono sull’infrastruttura e sulla formazione/informazione in tale ambito. Lo sviluppo di una coscienza aziendale orientata al corretto uso degli strumenti ed un'infrastruttura adeguatamente configurata sicuramente possono abbassare i rischi. Le aziende che vogliono ridurre il rischio informatico, investendo su soluzioni hardware/software, possono rivolgersi ad esperti del settore. Alla Dasir Tech, come azienda esperta del settore, spesso capita, di dover risolvere problematiche di violazione della sicurezza ed effettuare interventi di recupero dati per conto di clienti che non hanno la minima consapevolezza di tali problematiche. Prevenire, piuttosto che andare ad agire quando è troppo tardi, è sempre consigliabile. Richiedere un check dello status quo a degli esperti potrebbe essere un primo passo verso il miglioramento.

“NATIK”: IL PROGETTO DI RICERCA NATO PER DETERMINARE LA FATTIBILITÀ DI DATA CENTER SOTTOMARINI.

“NATIK”: IL PROGETTO DI RICERCA NATO PER DETERMINARE LA FATTIBILITÀ DI DATA CENTER SOTTOMARINI.

Redmond, casa Microsoft, siamo nei primi mesi del 2013. Ad alcuni dipendenti del settore Ricerca & Sviluppo del colosso dei servers, viene in mente l’idea di realizzare dei data center sottomarini. Potrebbe sembrare una pazzia o uno scherzo…invece nel 2014 parte lo sviluppo del primo prototipo di “Natik” e ad Agosto del 2015 il primo test. I data center del futuro potrebbero vivere sott’acqua non solo perché è l’habitat ideale per questo tipo di tecnologia ma anche perché ci sarebbe il vantaggio di rendere le infrastrutture più vicine in termine geografici agli utilizzatori finali. Oggi siamo abituati ad utilizzare svariati tipi di componenti elettronici e sappiamo bene che quando sono sotto stress e li mettiamo a lavorare intensamente, smartphones, notebook e dispositivi vari iniziano ad aumentare la loro temperatura. Ora pensate ai data center in cui ci sono migliaia di dispositivi che vanno a pieno regime, è ovvio che questi hanno bisogno di un sistema di raffreddamento che abbassi la temperatura ambientale ed è proprio questo il problema principale di un data center. Posizionando i data center in fondo al mare si può dire addio all’aria condizionata e con delle turbine che sfruttano i movimenti dell’acqua si può realizzare il raffreddamento con energia pulita, rinnovabile a costo zero! Il colosso di Redmond oggi gestisce un parco data center che va oltre le cento unità e ha spende in manutenzione ogni anno circa 15 miliardi di dollari per un sistema globale che offre oltre tantissimi servizi online in tutto il mondo. In questo modo si può abbassare il primario costo di un data center. Natik è una capsula d’acciaio di circa due metri e mezzo di diametro che è stata immersa a largo della costa Californiana, funzionando per oltre 100 giorni, sorprendendo gli stessi ingegneri che l’avevano progettata. L’utilizzo di data center subacquei avrebbe anche benefici logistici, oltre che quelli relativi alla temperatura. La maggior parte della popolazione, infatti, vive generalmente lontana dai server, che sono localizzati in zone poco popolate e quindi a bassa densità. Posizionare i data center nell’oceano e quindi più vicino ai centri abitati, aumenterebbe la velocità di trasferimento dei dati e anche della navigazione in rete degli utenti (oltre che dalla propria connessione dipende anche dal tempo di risposta del server). Anche le tempistiche sulla realizzazione e la posa in opera di un nuovo impianto sarebbero di gran lunga più vantaggiosi, infatti per costruire una capsula marina, servirebbero circa 90 giorni, contro i due anni necessari per la realizzazione di un data center “classico”. Non mancano all'orizzonte molti ostacoli che i ricercatori di Microsoft tenteranno di superare. Uno tra tutti la difficoltà di manutenzione da parte di operatori umani: per questo motivo le capsule dovrebbero essere in grado di rimanere al 100% operative senza manutenzione diretta per almeno 5 anni. Non mancano interrogativi sull'impatto ambientale che un'operazione del genere potrebbe comportare, soprattutto riguardo il riscaldamento dell'ambiente marino. Secondo i primi test condotti da Microsoft, le capsule genererebbero solo un "quantitativo estremamente piccolo" di calore, poiché l'energia che utilizzano è quella delle correnti marine e non ci sarebbe dispersione di calore, a parte quella legata alla conversione dell'energia. I ricercatori dell'azienda hanno anche registrato con sensori acustici che il ticchettio delle testine dei dischi e il fruscio delle ventole è sovrastato dal rumore di un singolo gamberetto che nuota vicino la capsula. Di seguito il link ufficiale del progetto per chi volesse approfondire e curiosare sull’argomento: http://natick.research.microsoft.com/

BENVENUTO WINDOWS 10: GUIDA  ALL’INSTALLAZIONE DEL NUOVO SISTEMA OPERATIVO

BENVENUTO WINDOWS 10: GUIDA ALL’INSTALLAZIONE DEL NUOVO SISTEMA OPERATIVO

Dal 29 luglio è disponibile l’ultima versione del più diffuso sistema operativo di sempre: Windows 10. Windows 10 è il sistema operativo finale della Microsoft, di conseguenza da questo momento saranno previsti solo gli upgrade automatici del sistema. Windows 10 sarà anche il sistema operativo installato su qualsiasi tipo di dispositivo Microsoft: pc, notebook, tablet e smartphone ed avrà un unico App store con app compatibili con tutti i dispositivi. Il prezzo previsto per l’Europa sarà di 130,00 € IVA inclusa e sarà distribuito solo su chiavetta USB bootable.  Una piccola guida per l’installazione del sistema operativo: Da qualche mese, su ogni pc equipaggiato con qualsiasi sistema operativo Microsoft a partire da Windows 7 è comparsa una icona a forma della solita bandiera della Microsoft nel gruppo delle Tray Icon, sulla barra delle applicazioni a destra. Cliccando sull’icona c’è un wizard che guida l’utente sull’upgrade al nuovo sistema operativo. Una volta che il wizard ha calcolato che le prestazioni della macchina soddisfino i requisiti minimi per l’installazione, si può partire con l’upgrade. Dopo circa 45 min (dipende dalla potenza della macchina) automaticamente ci ritroviamo sulla pagina del Login del sistema operativo ed il sistema sarà pronto. Io consiglio sempre e comunque di eseguire un backup dei dati importanti prima dell’aggiornamento poiché se qualcosa non andasse a buon fine potrebbero i dati essere perduti anche senza alcun preavviso dal wizard. Le nuove features di Windows 10 Al primo avvio del nuovo sistema ci ritroviamo sulla pagina di Login dove bisogna inserire la password per l’accesso al sistema. Già qui possiamo notare i primi miglioramenti, come lo spazio in basso a sinistra con l’elenco degli utenti sui quali è possibile cliccare ed eseguire lo switch. Dopo aver inserito le credenziali compare di nuovo il vecchio caro desktop con il solito bottone in basso a sinistra da cui compare il menu delle applicazioni che presenta anche l’interfaccia metro con le icone interattive. Un’altra feature interessante e comoda è l’aggiunta dell’icona “Visualizzazione attività”, che consente di dare uno sguardo alle attività correnti e di aggiungere ulteriori desktop a quello utilizzato.         Conclusioni Dopo i primi test effettuati ed usando inizialmente il sistema, sembra essere almeno veloce quanto Windows 8.1, se non di più, ed inoltre risulta essere più intuitivo dei precedenti sistemi operativi Microsoft. Previo salvataggio dati, consigliamo a tutti di effettuare quanto prima l’upgrade per provare questo interessante prodotto della Microsoft.

SSD AD ALTISSIMA CAPACITÀ? BENVENUTA 3D V-NAND!

SSD AD ALTISSIMA CAPACITÀ? BENVENUTA 3D V-NAND!

Gli SSD (solid state disk = hard disk a stato solido) sono stati di recente la rappresentazione dell’innovazione più grande per quanto riguarda la risoluzione del problema del collo di bottiglia di ogni personal computer, server o workstation, rappresentato dall’hard disk, su cui risiedono sistema operativo e programmi di utilizzo comune. Se da un lato il miglioramento prestazionale di una macchina, passando ad una soluzione SSD, è alquanto evidente, questa nuova tecnologia porta con se due problemi: costo elevato e ridotte capacità di storage rispetto ai dischi tradizionali. La soluzione a questo problema è arrivata da una nuova tecnologia: 3D V-Nand sviluppata in primis dalla napoletana Micron/Intel e dal colosso Samsung. Andiamo a descrivere la tecnologia: immaginate una cella V-Nand come un appartamento in cui memorizziamo un bit d’informazione. I primi SSD in commercio e molti di quelli attuali hanno le celle V-Nand disposte in maniera planare quindi immaginatele come villette a schiera, disposte in fila, in maniera matriciale, connesse alle altre con dei cavi (tipo fili del telefono) ed ogni villetta è ad un solo livello ed ha una sola stanza, in cui posso memorizzare la mia informazione, un bit. La tecnologia 3D V-Nand passa ad una soluzione spaziale diversa in cui le celle si dispongono in maniera anche verticale arrivando fino a 32 strati di celle. Immaginare questo tipo di memoria come un quartiere di villette fatto a più livelli verticali in cui ogni pila verticale di villette è connessa all’altra mediante un cavo alla sua sommità (tipo palo del telefono). In questo modo la densità di celle aumenta senza aumentare le dimensioni della base rettangolare dell’hard disk.       Un’altra peculiarità interessante di questo tipo di tecnologia è la riduzione dell’interferenza intercella. Nella vecchia tecnologia, quella planare, in 2D, non era possibile miniaturizzare ancora di molto le celle a causa degli errori dovuti proprio alla miniaturizzazione mentre sviluppando in verticale l’interferenza intercella è ridotta e quindi è possibile aumentare la densità di celle per pollice quadrato riducendo la grandezza fisica delle celle. Infine, con questa nuova tecnologia, a parità di prestazioni, si ottengono hard disk a stato solido che consumano meno energia rispetto alle tecnologie precedenti, fattore che rende molto “green” questa innovazione. I vari competitors già hanno messo sul mercato dei componenti di questo genere ma per arrivare ad ottenere seri benefici dovremmo aspettare almeno un paio d’anni. Un giorno, nemmeno tanto lontano, potremmo avere nei nostri pc SSD da 10 TB al costo degli attuali dischi tradizionale da 4 TB, con prestazioni da capogiro e prezzi contenuti.

"APPLE WATCH", ANCHE APPLE DICE LA SUA SUGLI SMARTWATCH

"APPLE WATCH", ANCHE APPLE DICE LA SUA SUGLI SMARTWATCH

In un mondo sempre più di corsa tutti i competitors che operano nei vari settori dell’innovation technology provano a produrre oggetti sempre più smart per renderci la vita più semplice. Quando si parla di wearable technology non si può evitare di porre l’attenzione sulle trasformazioni che tale ricerca ha accentuato anche agli oggetti di uso comune stravolgendoli a volte quasi completamente: è questo il caso dell’orologio. Vogliamo parlare della ritardataria Apple, che tanto ha fatto penare i suoi adepti per la messa in commercio del suo dispositivo appartenente a tale categoria. L’Apple Watch ha schermo touch rettangolare in vetro zaffiro e design elegante, legato a varie linee in grado di sposare contesti differenti. Apple Watch è in grado di dialogare con gli iPhone ed è in grado di offrire funzionalità peculiari in ambito fitness e navigazione turn-by-turn. Può essere controllato anche tramite comandi vocali (tramite Siri) ed ha uno speciale "digital crown" per migliorare la navigabilità tra i menu e le immagini sullo schermo. Dovrebbe arrivare sul mercato a breve ad un prezzo base pari a 349 dollari fino a quella in oro da 4999 dollari. Analizziamone alcune caratteristiche peculiari, i pregi ed i difetti: Cinturini intercambiabili: -Acciaio lucido inossidabile, in tinta naturale o nero siderale; -Sport: alluminio anodizzato in argento oppure in grigio siderale; Edition: oro 18 carati, realizzato con uno speciale processo di lavorazione che lo rende due volte più duro e resistente rispetto all’oro classico. Modalità di interazione: -Touch: classico modo d’interazione disponibile su tutti gli start watch; -Siri: interazione vocale basata sul noto assistente vocale di Apple; -Messaggi sensoriali: per esempio al partner che indossa il nostro medesimo modello di Apple Watch, attraverso un tocco che verrà replicato sul polso dell’amato; -Sensori fotosensibili: monitoreranno la pressione sanguigna, il battito cardiaco, le calorie consumate, i passi effettuati.  -Ricarica: Addio ai metodi canonici: il caricabatteria è, infatti, un disco magnetico che si collega direttamente alla parte posteriore dell’orologio. Water resistent: si tratta di un dispositivo resistente all’acqua, dotato di speaker e microfono per Batteria: la batteria dell'Apple Watch potrebbe essere il suo più grande limite. Secondo alcune fonti di 9to5mac, l'obiettivo di Apple sono due ore e mezza di uso intenso e circa 19 ore di uso combinato attivo e passivo, quello più comune. L'autonomia arriverà a 2-3 giorni in standby. Se facciamo un confronto, Pebble offre circa quattro giorni di uso moderato con schermo acceso, mentre gli smart watch Tizen di Samsung, come Gear 2 e Gear 2 Neo, arrivano a 2-3 giorni. Anche Sony SmartWatch supera agilmente i due giorni. In questo contesto, Apple Watch potrebbe non essere il prodotto rivoluzionario che gli analisti avevano auspicato, ma il successo dei prodotti Apple passa anche per altri fattori: marchio, design, ottimizzazione software. https://www.apple.com/it/watch/

Visualizzo 1-7 di 7 elementi.