Post blog

Web

La neutralità della rete

La neutralità della rete

 La neutralità della rete è un principio secondo cui gli Internet service provider (ISP) devono fornire un accesso ad internet equo senza nessuna discriminante su contenuto o applicazione. Secondo questo concetto una persona che, guardando uno show su Netflix, o su Youtube, o acquistando un prodotto su Amazon, dovrebbe caricare i contenuti richiesti alla stessa velocità. Ciò significa che gli ISP, non possono scegliere quali dati siano inviati più velocemente, o quali siti siano bloccati o accelerati. Ad esempio non possono rallentare il traffico di uno streaming perché proviene da una compagnia che compete con gli interessi del provider. Durante l’amministrazione Obama, il 26 febbraio 2015 la FCC (Federal Communications Commission, l'agenzia americana delle comunicazioni) ha stabilito che la rete Internet è, e resta, “neutrale”. Il presidente della FCC Tom Wheeler ha affermato che "questa decisione più che regolamentare la rete è un piano per disciplinare la libertà di parola". Gli ISP non possono discriminare il traffico dei contenuti online con "doppie velocità", filtri, corsie veloci o rallentamenti arbitrari. La “neutralità” è una delle caratteristiche fondamentali di Internet, che nel bene e nel male ha garantito la sua libertà per tutti questi anni. Il 14 dicembre 2017, la FCC presieduta da Ajit Pai designato da Trump ha votato per l’abolizione del regolamento introdotto nel 2015 dando il via di fatto alla possibilità di un internet a due velocità a partire dal 23 aprile 2018 data dell’entrata vigore dell’abolizione. La decisione offre un margine significativo agli ISP: un giorno potrebbero decidere di bloccare determinate app e siti Web, rallentare i contenuti forniti dai concorrenti, seppellire risultati di ricerca pertinenti ma non pagati, ecc. L'Unione Europea nel 2016 ha approvato una direttiva che stabilisce il quadro di base per garantire la neutralità della rete in tutta l'Unione europea. Ma a livello globale, gli utenti di Internet sperimenteranno gli effetti indiretti della decisione statunitense, dal momento che il suo impatto sul mercato competitivo all'interno dei confini americani si propagherà in tutto il mondo.

Pubblicato il 20 apr 2018

Potrebbero interessarti

LAVORO E WEB: I NUOVI MESTIERI DIGITALI

L’espansione del web ha generato nuove professioni necessarie per le aziende che vogliono stare al passo con i tempi. Qui una lista delle più richieste : Programmatic Buying Manager. Il programmatic buying manager si occupa della pianificazione pubblicitaria “ad audience”: la strategia che permette di inquadrare e corteggiare un target ben definito di utenti. Il background richiede un buon equilibrio tra requisiti tecnici e commerciali: competenze professionali nella galassia digital e penetrazione diretta delle condizioni di mercato. E-commerce. Gli specialisti del commercio elettronico seguono i canali di vendita online delle aziende. Un driver decisivo, se si considera la scarsa familiarità tra Pmi e web (meno di un'impresa su tre è presente con un sito autonomo) e i margini di apertura sui mercati internazionali garantiti dal web. Web marketing Manager. Il web marketing manager gestisce le campagne di marketing digitale. Sua la responsabilità delle strategie sui nuovi media, come l'aumento di visibilità del marchio (online branding), la “fidelizzazione” dei clienti e la creazione di landing page promozionali. La figura non è nuova, ma mantiene buona domanda e buone soglie retributive. Web sales Account. Richiestissimo dalle concessionarie, il web sales account si occupa di commercializzare spazi e prodotti pubblicitari. Gli interlocutori privilegati per la sua attività sono centri media (centrali di acquisto pubblicitario) o advertiser (le aziende che pubblicizzano il proprio brand, prodotto o servizio). Chief technology Officer. Dustin Moskovitz, primo chief technology officer (Cto) di Facebook, rientra stabilimente nelle classifiche dei paperoni più giovani al mondo con un patrimonio di 8,1 miliardi di dollari. Senza spingersi troppo in là, il Cto è tra i manager più preziosi per lo sviluppo dell'azienda: definisce gli investimenti tecnologici, valuta lo stato di avanzamento, stima il progresso tecnico che si potrebbe ricavare da fusioni e alleanze con altre società. Non è un caso se il ruolo si sta facendo sempre più centrale nelle decisioni finanziarie e di marketing delle imprese, a tu per tu con il potenziamento “tech” dei vecchi sistemi produttivi. Le lauree più frequenti sono in ingegneria o informatica. Seo Manager. Richiesti a ritmo del +27% annuo, i Seo manager gestiscono il posizionamento del sito aziendale sui motori di ricerca. Le mansioni si racchiudono già nella sua formula iniziale, search engine optmization: ottimizzazione di contatti ed esposizione dei portali web. Si richiedono conoscenza professionale dell'informatica, meglio se con una laurea nel settore; predisposizione all'analisi dei dati; familiarità con i motori di ricerca che catturano il grosso dei clic in rete.

COS’È IL PAGERANK?

Il PageRank è un algoritmo di Link Analysis Ranking, basato sulla formula matematica: Questo algoritmo assegna “un peso numerico ad ogni elemento di un insieme di documenti ipertestuali, con lo scopo di misurare la sua importanza relativa all'interno della serie”. In altre parole, l’algoritmo di Google è la formula che analizza e determina la posizione di un sito web all’interno di una ricerca effettuata su Google stesso, o più semplicemente, un metodo per ordinare i risultati forniti dai motori di ricerca dal più rilevante al meno rilevante. E’ doveroso precisare che l’idea di un algoritmo di questo tipo è venuta ad un italiano: Massimo Marchiori, ideatore del motore di ricerca Hyper Search che basava i risultati non soltanto sui punteggi delle singole pagine, ma anche sulla relazione che lega la singola pagina col resto del web. Questo motore di ricerca, ha aperto la strada agli attuali motori di ricerca, in particolare a Google. Perché è nato il PageRank? Tra le milioni di pagine web presenti su Internet, la stragrande maggioranza delle persone che effettua delle ricerche sui motori di ricerca, non va al di là della prima pagina. Questo avvalora il fatto che qualsiasi gestore di un sito ambisce al posizionamento nella prima pagina di Google, da qui nasce la necessità di adottare dei criteri per determinare la rilevanza di una pagina web, che non siano manipolabili dal proprietario di quella pagina. Si parla di fattori SEO off page, cioè fattori esterni alla pagina, tra i più importanti troviamo: I link provenienti dagli altri siti (e di conseguenza il PageRank ricevuto) Gli apprezzamenti positivi delle persone che effettuano le ricerche Come funziona il PageRank? Quando un utente inserisce una query, i nostri computer cercano delle pagine corrispondenti nell'indice, quindi restituiscono i risultati più pertinenti. La pertinenza viene stabilita tenendo in considerazione oltre 200 fattori, uno dei quali è il PageRank di una pagina specifica, quest’ultimo associa ad ogni pagina web un valore da 0 a 10.  Quando una pagina viene citata da altri siti mediante un link, in pratica è come se ricevesse un voto e di conseguenza aumenta il suo PageRank. Di quanto aumenta? Dipende dal PageRank del sito che inserisce il link e dal numero di link in uscita di quel sito. Le pagine web appena pubblicate hanno un valore pari a 0. Ogni 3 o 4 mesi però, Google aggiorna il valore del PageRank per ogni sito. Il valore può aumentare o diminuire in base ad alcuni criteri. Aumenta se il sito viene citato da alti siti, diminuisce in caso di penalizzazioni. Il segreto dell’algoritmo di Google. L’algoritmo di Google con il tempo è diventato molto più sofisticato e la versione più recente deve valutare molti fattori che prima non esistevano, per esempio: i social networks, lo spam, la duplicazione dei contenuti e la crescita esponenziale dei siti web. Rimane un algoritmo segretissimo: conoscere l’algoritmo di Google significherebbe capire esattamente quanto peso Google attribuisce ad ogni elemento di un sito per determinare la sua classifica all’interno delle ricerche effettuate da parte degli utenti. Esempi di pagine con un buon PageRank Wikipedia ha un PageRank pari a 7 per la versione italiana e pari a 9 per la versione internazionale. Infatti quando cerchiamo qualcosa su Google, quasi sempre troviamo tra i primi risultati una pagina di Wikipedia. Ovviamente il PageRank è fondamentale ma non è tutto. Infatti alcune pagine sono posizionate meglio di altre pur avendo un PageRank più basso. L’obiettivo di Google è migliorare l'esperienza degli utenti identificando i link di tipo spam e altre prassi che influiscono negativamente sui risultati di ricerca. I tipi migliori di link sono quelli basati sulla qualità dei contenuti.  

COME SI INDICIZZA UN SITO…PARTE 2

Quando cerchiamo qualcosa su un motore di ricerca, non cerchiamo effettivamente su internet ma nell’indice del Web del motore di ricerca che stiamo utilizzando.  Questo indice viene creato dopo una scansione di tutte le pagine del Web che avviene mediante programmi software, i cosiddetti spider (detti anche crawler o robot). Uno spider è un tipo di BOT, programma o script che automatizza delle operazioni. Ma come funzionano gli spider? Generalmente, gli spider memorizzano i contenuti dei documenti visitati e li inseriscono in un indice. Sul Web invece, gli spider analizzano i contenuti di una rete (o di un database), partendo da una lista di URL (indirizzo di una risorsa internet) da visitare. Durante l’analisi di un indirizzo, gli spider seguono tutti i link presenti nel documento e li aggiungono alla lista di URL da visitare in seguito. Gli indirizzi di questa lista, chiamata crawl frontier (“frontiera dell'indicizzazione”), vengono visitati ricorsivamente dagli spider, in modo da poter memorizzare eventuali modifiche e aggiornamenti. Gli URL e i collegamenti ipertestuali presenti nelle pagine della crawl frontier vengono a loro volta aggiunti alla lista generale e visitati successivamente. Quindi la struttura dei link del web serve a collegare tutte le pagine esistenti, poiché, attraverso i link, i robot automatici dei motori di ricerca possono raggiungere tutti i miliardi di documenti tra loro interconnessi. In tal modo viene a crearsi una vera e propria ragnatela di pagine internet, da qui la spiegazione del nome spider, ovvero un ragno che si muove in tale ragnatela. Infine è possibile dare agli spider delle indicazioni contenute all’interno del file robots.txt (protocollo di esclusione robot), di solito posto nella root del sito, su come eseguire l’indicizzazione di quest’ultimo, come ad esempio cosa scansionare e cosa no. Lo spider può seguire tali indicazioni o meno, di certo non è obbligato. Esempi di spider: Googlebot, è lo spider di Google, Slurp quello di Yahoo! mentre quello di Microsoft Live Search è Msnbot. Per dare istruzioni robots, cioè istruzioni agli spider dei motori di ricerca su cosa possono e non possono fare, possiamo utilizzare oltre al file robots.txt anche il meta tag robots. Questo, a differenza del file robots.txt che riguarda il sito complessivamente, si riferisce alla singola pagina in cui è presente. Vediamo come si usa praticamente: nell’head della pagina html si inserisce il meta tag il cui codice è: <meta name="robots" content="..."> All’interno dell’attributo content si inserisce l’istruzione per lo spider, i valori che questo attibuto può assumere sono: index - si richiede di indicizzare la pagina (di inserirla cioè nell'archivio del motore di ricerca); noindex - si richiede di non includere la pagina negli archivi del motore di ricerca; follow - si richiede che tutti i link presenti nella pagina vengano seguiti; nofollow - si richiede di non seguire i link che da quella pagina puntano verso altre pagine. Questi valori vengono combinati tra loro. Da questa combinazione ricaviamo quattro alternative: <meta name="robots" content="index, follow"> - lo spider indicizza le pagine e segue tutti i link; <meta name="robots" content="index, nofollow"> -  lo spider indicizza la pagina ma non segue i link; <meta name="robots" content="noindex, follow"> - lo spider non indicizza la pagina, ma segue i link che da quella pagina portano ad altre pagine. <meta name="robots" content="noindex, nofollow"> -  si richiede allo spider di non indicizzare e non seguire i link di quella pagina. Lasciando come name="robots" stiamo dando un'istruzione a tutti gli spider. Se volessimo restringere le istruzioni a singoli spider, dovremmo cambiare il name, ad esempio: <meta name="googlebot" content="index, follow"> In questo caso l'istruzione riguarda esclusivamente lo spider Googlebot.