Facebook e Privacy: come sono usati i nostri dati

Facebook e Privacy: come sono usati i nostri dati

Facebook è stato recentemente investito da un nuovo scandalo legato all’utilizzo improprio dei dati sensibili degli utenti da parte di una società di analisi, Cambridge Analytica. Tale società è riuscita ad estrarre dati utili, di oltre 50 milioni di utenti, per le ultime campagne presidenziali USA, senza richiedere alcun permesso esplicito. I social network negli anni hanno dimostrato noncuranza per i dati posseduti permettendo spesso accessi ed usi impropri. La situazione è aggravata dalla mole di informazioni sensibili possedute da tali sistemi tra cui: - Nome, genere, data di nascita, email, numero di telefono; - Pubblicità con cui l'utente interagisce; - Scuola, luogo di nascita e residenza, lavoro, social; - Indirizzi IP da cui l'utente si collega, informazioni geografiche; - Amici a cui si è connessi; - Attività compiute sul social dal momento dell'iscrizione Facebook deve ovviamente trarre un profitto da questi dati. Mark Zuckerberg ha dichiarato ai membri del Senato USA che Facebook non vende i dati degli utenti, ma permette alle aziende di richiedere uno specifico target a cui il social fornisce l'Advertisement. Quanto detto è vero in parte in quanto Facebook combina i dati degli utenti per fornire direttamente pubblicità mirata agli stessi. Le aziende richiedono al social network un target da raggiungere, Facebook ricerca gli utenti nel proprio database e gli propone pubblicità mirata. Sembrerebbe che il Social non fornisca mai i dati degli utenti e non li venda, in realtà è possibile estrarre dati da Facebook in vario modo. Questa fuga di dati ha dimostrato come Facebook non faccia abbastanza per preservare e garantire la privacy degli utenti ed evitare la fuga di dati, seppur non venda esplicitamente i dati dei suoi utenti.

Pubblicato il 13 apr 2018

Potrebbero interessarti

Deep Web: l'universo inesplorato della rete

Cos’è il Deep Web? Perché questo argomento continua ad essere poco conosciuto? Possiamo definirlo come l'insieme dei siti web non indicizzati, composto da pagine web a contenuto dinamico, web software e siti privati aziendali. Questo strumento è nato intorno agli anni ’90 per permettere alle forze militari lo scambio di informazioni segrete non rintracciabili, poi si è inevitabilmente evoluto fino a diventare l’enorme calderone dei nostri giorni. Il Web comprende circa 600 miliardi di documenti ma i classici motori di ricerca ne indicizzano solo 2 miliardi, meno dell'1%. Una mole di materiale inimmaginabile. Esso è un vero e proprio mercato nero che si basa sulla moneta virtuale ovvero il Bitcoin: una valuta acquistabile esclusivamente su Internet, non gestita dalle banche, le cui transazioni sono criptate e anonime al 100%. Come funziona? Tutti i siti che fanno parte dell’internet sommerso hanno il dominio “.onion” e per accedere ad essi sono necessari software speciali che impediscono l’identificazione degli utenti online, nascondendo l’indirizzo IP reale e sfruttando la crittografia. I dati passano direttamente attraverso i server, che agiscono da router, costruendo un circuito virtuale crittografato a strati. Cosa si trova? Una volta entrati nel Deep Web, si naviga tra i vari siti che permettono di fornire informazioni importanti nel perfetto anonimato, come l’accesso a documenti governativi riservati o materiale per fini illeciti. Altri invece consentono a gruppi di dissidenti in paesi retti da regimi autoritari di comunicare tra loro. Anche Edward Snowden e gli attivisti delle primavere arabe, hanno usato questo strumento per sfuggire a censura e controlli. Esattamente come nella vita reale, possiamo trovare cose buone e cose cattive. Dunque il suo utilizzo è consigliato esclusivamente a coloro che sanno ben gestire il binomio tra curiosità e cautela.

LA CRESCITA DEGLI ACQUISTI ONLINE IN ITALIA

Occupandoci anche di consulenza software, i nostri clienti ci chiedono spesso se conviene o no fare un eCommerce per la propria attività. La risposta la potete trovare in questo articolo. L’eCommerce in Italia è in crescita dal 2010: dopo aver ottenuto un incremento del 16% nel 2014, l’eCommerce ha registrato per il 2015 un’ulteriore crescita del 16% che porterà il mercato a superare i 15 miliardi di euro. È il dato stimato in occasione del Netcomm eCommerce Forum, che si svolge alla presenza di oltre 4.000 invitati, tra aziende, professionisti e giornalisti. Il Mobile Commerce si conferma tra i principali fenomeni dell’eCommerce in Italia: gli acquisti tramite Smartphone crescono del 78% nel 2014 e stanno registrando un’ulteriore crescita del 68% nel 2015, con un valore triplicato in due anni, da un totale di 610 milioni nel 2013 a 1,8 miliardi di euro nel 2015. Secondo le ultime stime di Ecommerce Foundation, in tutto il mondo le vendite complessive di beni e servizi online si attesteranno sui 2.100 miliardi di dollari a fine 2015 (erano 1.840 miliardi a fine 2014), ovvero il 5% sul totale complessivo delle vendite retail. Sono in media il 75% gli utenti che nel mondo accedono al web tramite dispositivi mobili. Se, poi, analizziamo la sola Europa le previsioni per il 2015 si stima a 470 miliardi di euro il fatturato complessivo di beni e servizi acquistati tramite eCommerce, con una preponderanza del 54% dei beni rispetto al 46% dei servizi. In Europa la popolazione di e-shopper supera i 230 milioni di individui e sono circa 2,5 milioni i posti di lavoro che direttamente o indirettamente l’eCommerce sta generando nel Vecchio Continente. Nel corso del 2014 i 3 Paesi europei in cima all’ideale classifica delle vendite online che catalizzano il 60% delle vendite online sono: Uk con 122 miliardi di euro, Germania con 70 miliardi, Francia con 56,8. I settori che più contribuiscono alla crescita sono Turismo (+14%), Informatica ed elettronica di consumo (+21%), Abbigliamento (+19%) ed Editoria (+31%). Rilevante anche l’apporto dei settori emergenti: Food&Grocery, Arredamento e Home living, Beauty (cosmetica e profumeria) e Giocattoli superano insieme quota 1 miliardo di €. Gli acquisti via Smartphone crescono del 64% e valgono il 10% dell’eCommerce nel 2015, il 21% se aggiungiamo quelli via Tablet Mobile Commerce ed evoluzione del consumatore online Gli acquirenti che effettuano almeno un acquisto online nell’arco di tre mesi rappresentano più del 36% della popolazione internet italiana, con 11,1 milioni di consumatori abituali (ossia che effettuano online almeno un acquisto al mese). Lo scontrino medio è di 89 euro, con una ripartizione quasi equivalente tra prodotti e servizi. Nell’esperienza d’acquisto del consumatore, i dispositivi Mobile giocano un ruolo sempre più rilevante: gli acquisti online tramite Smartphone aumentano del 64%, superano il valore di 1,7 miliardi di € valgono il 10% dell’eCommerce nel 2015, il 21% se aggiungiamo quelli via Tablet. “Il consumatore online si sta evolvendo in un acquirente multicanale e multidevice, che non concepisce la sua customer experience come un insieme strutturato di canali e strumenti ma è alla ricerca di un unicum nel quale trovare coerenza e continuità durante la sua interazione con l’azienda,” afferma Roberto Liscia, Presidente Netcomm. “Secondo i dati del Net Retail, 8,5 milioni di individui lo scorso anno hanno cercato informazioni online mentre osservavano un prodotto in un negozio (cosiddetto fenomeno dell’info-commerce). Al tempo stesso si osserva anche la dinamica opposta, il fenomeno dello showrooming: 13,6 milioni di consumatori cercano oggi in un negozio un prodotto già visto online nel mese precedente. Questi dati mostrano molto chiaramente come il consumatore utilizzi canali online e offline non in maniera alternativa o cannibalizzando l’uno con l’altro, ma semplicemente ricercando in ognuno di essi la soddisfazione del bisogno che in quel momento lo spinge ad interagirvi.” Marketing and Advertising Per quanto riguarda il budget speso in pubblicità per la promozione degli e-commerce, lo strumento più utilizzato pare essere il keyword advertising, che ricopre mediamente il 29% delle risorse disponibili. Un leggero decremento si è avuto sugli investimenti dei social media, che godono del 12% del budget contro il 15% del 2014. Malgrado ciò, Facebook pare essere comunque uno strumento molto importante per le aziende che vendono online, infatti il 68% delle aziende lo giudica utile ai fini di crescita del fatturato ed è secondo solo a YouTube. Conclusione La risposta alla domanda dei nostri clienti è ASSOLUTAMENTE SI, conviene ed è importantissimo avere un eCommerce per le piccole o grandi realtà. Sarebbe controproducente non approfittare dell’opportunità di essere online ed essere visibili al mercato mondiale. IMPORTANTE: non bisogna pensare che fare un eCommerce significa fare un sito e quindi affidarsi all’amico di turno, ma affidarsi a specialisti del settore può garantirti un’affidabilità del progetto a lungo termine. Per info circa la realizzazione di un eCommerce contattaci su info@dasir.it [slideshare id=47039814&doc=ecommerce-in-italia-2015-150415132332-conversion-gate01] Fonti: Casaleggio Associati https://www.casaleggio.it/e-commerce/ La Stampa http://www.lastampa.it

COME SI INDICIZZA UN SITO…PARTE 2

Quando cerchiamo qualcosa su un motore di ricerca, non cerchiamo effettivamente su internet ma nell’indice del Web del motore di ricerca che stiamo utilizzando.  Questo indice viene creato dopo una scansione di tutte le pagine del Web che avviene mediante programmi software, i cosiddetti spider (detti anche crawler o robot). Uno spider è un tipo di BOT, programma o script che automatizza delle operazioni. Ma come funzionano gli spider? Generalmente, gli spider memorizzano i contenuti dei documenti visitati e li inseriscono in un indice. Sul Web invece, gli spider analizzano i contenuti di una rete (o di un database), partendo da una lista di URL (indirizzo di una risorsa internet) da visitare. Durante l’analisi di un indirizzo, gli spider seguono tutti i link presenti nel documento e li aggiungono alla lista di URL da visitare in seguito. Gli indirizzi di questa lista, chiamata crawl frontier (“frontiera dell'indicizzazione”), vengono visitati ricorsivamente dagli spider, in modo da poter memorizzare eventuali modifiche e aggiornamenti. Gli URL e i collegamenti ipertestuali presenti nelle pagine della crawl frontier vengono a loro volta aggiunti alla lista generale e visitati successivamente. Quindi la struttura dei link del web serve a collegare tutte le pagine esistenti, poiché, attraverso i link, i robot automatici dei motori di ricerca possono raggiungere tutti i miliardi di documenti tra loro interconnessi. In tal modo viene a crearsi una vera e propria ragnatela di pagine internet, da qui la spiegazione del nome spider, ovvero un ragno che si muove in tale ragnatela. Infine è possibile dare agli spider delle indicazioni contenute all’interno del file robots.txt (protocollo di esclusione robot), di solito posto nella root del sito, su come eseguire l’indicizzazione di quest’ultimo, come ad esempio cosa scansionare e cosa no. Lo spider può seguire tali indicazioni o meno, di certo non è obbligato. Esempi di spider: Googlebot, è lo spider di Google, Slurp quello di Yahoo! mentre quello di Microsoft Live Search è Msnbot. Per dare istruzioni robots, cioè istruzioni agli spider dei motori di ricerca su cosa possono e non possono fare, possiamo utilizzare oltre al file robots.txt anche il meta tag robots. Questo, a differenza del file robots.txt che riguarda il sito complessivamente, si riferisce alla singola pagina in cui è presente. Vediamo come si usa praticamente: nell’head della pagina html si inserisce il meta tag il cui codice è: <meta name="robots" content="..."> All’interno dell’attributo content si inserisce l’istruzione per lo spider, i valori che questo attibuto può assumere sono: index - si richiede di indicizzare la pagina (di inserirla cioè nell'archivio del motore di ricerca); noindex - si richiede di non includere la pagina negli archivi del motore di ricerca; follow - si richiede che tutti i link presenti nella pagina vengano seguiti; nofollow - si richiede di non seguire i link che da quella pagina puntano verso altre pagine. Questi valori vengono combinati tra loro. Da questa combinazione ricaviamo quattro alternative: <meta name="robots" content="index, follow"> - lo spider indicizza le pagine e segue tutti i link; <meta name="robots" content="index, nofollow"> -  lo spider indicizza la pagina ma non segue i link; <meta name="robots" content="noindex, follow"> - lo spider non indicizza la pagina, ma segue i link che da quella pagina portano ad altre pagine. <meta name="robots" content="noindex, nofollow"> -  si richiede allo spider di non indicizzare e non seguire i link di quella pagina. Lasciando come name="robots" stiamo dando un'istruzione a tutti gli spider. Se volessimo restringere le istruzioni a singoli spider, dovremmo cambiare il name, ad esempio: <meta name="googlebot" content="index, follow"> In questo caso l'istruzione riguarda esclusivamente lo spider Googlebot.