Post blog

Web

COME SCRIVERE SUL WEB (I Parte)

COME SCRIVERE SUL WEB (I Parte)

La comunicazione on-line ha le sue regole. Il lettore, sul web, è di natura distratto, sempre di corsa, facilmente annoiabile. Non parte dall’idea di prestare attenzione al contenuto… la sua attenzione bisogna guadagnarsela!

Una lettura a “F       lettura a F   

Jakob Nielsen, Il guru della Web Usability, nel suo eyetracking study, ci dimostra come un navigatore visualizza una pagina Web:  Pur analizzando diverse strutture di pagina web, sullo schermo i nostri occhi “disegnano” sempre una forma a “F”. Due movimenti orizzontali in alto, il primo più lungo, il secondo più breve, seguiti da un movimento verticale a sinistra Questo studio ci conferma che il lettore sul web non legge riga per riga ma scorre la pagina alla ricerca di qualcosa che catturi il suo interesse. Quando ci troveremo ad elaborare dei contenuti per il web non dovremo quindi pensare ad adattarli ad una classica lettura: dall’alto verso il basso e da sinistra verso destra, come per secoli era avvenuto sulla carta stampata; ma ad un movimento imprevedibile dello sguardo all’interno della pagina. Il nostro Cyber-lettore inoltre salta da un sito all'altro con facilità, dato lo sproporzionato numero di fonti che offrono le stesse informazioni, legge l'essenziale di una pagina, la chiude e continua la sua ricerca. Per scrivere e quindi per comunicare in modo efficace sul web si deve tener conto di determinati fattori e ricordare che la scrittura sul web non segue le regole tradizionali, ma, come abbiamo detto in apertura, ha delle regole tutte sue…spesso inverse a ciò che ci hanno insegnato per anni a scuola. Ma non le scopriremo oggi…vi do appuntamento al mio prossimo articolo: “COME SCRIVERE SUL WEB (II Parte)” che sarà prossimamente disponibile sul Blog Dasir.

Pubblicato il 12 gen 2017

Tags

Nessun tag associato

Potrebbero interessarti

La sicurezza informatica in azienda

La sicurezza informatica è una delle questioni più dibattute degli ultimi tempi. Le aziende possono provare a ridurre al minimo i rischi dei loro sistemi informatici ma non è possibile avere un sistema privo di vulnerabilità. Il primo passo da fare è quello di redigere un documento di “Policy sulla sicurezza informatica” nel quale sono presenti le regole ed i comportamenti che gli utenti (dipendenti, collaboratori, consulenti, etc.) devono seguire per contrastare i rischi. Tale documento dovrebbe essere consegnato e fatto firmare ad ogni utente all’inizio del rapporto lavorativo. Il “Responsabile del Trattamento dei dati” è la figura aziendale che si occupa di redigere, far firmare e inviare via mail ogni anno tale documento. Le presenti linee guida riguardano generalmente i dispositivi (pc, tablets, smartphones, etc.), la rete aziendale, l’utilizzo del web e la posta elettronica, la gestione dei dati. Spesso molte azienda non riescono a ridurre i rischi informatici poiché non investono sull’infrastruttura e sulla formazione/informazione in tale ambito. Lo sviluppo di una coscienza aziendale orientata al corretto uso degli strumenti ed un'infrastruttura adeguatamente configurata sicuramente possono abbassare i rischi. Le aziende che vogliono ridurre il rischio informatico, investendo su soluzioni hardware/software, possono rivolgersi ad esperti del settore. Alla Dasir Tech, come azienda esperta del settore, spesso capita, di dover risolvere problematiche di violazione della sicurezza ed effettuare interventi di recupero dati per conto di clienti che non hanno la minima consapevolezza di tali problematiche. Prevenire, piuttosto che andare ad agire quando è troppo tardi, è sempre consigliabile. Richiedere un check dello status quo a degli esperti potrebbe essere un primo passo verso il miglioramento.

COME SI INDICIZZA UN SITO – PARTE 1

Nell’era dei vari motori di ricerca ed in particolare di Google, sempre più spesso si sente parlare di indicizzazione e posizionamento di siti web. Ma che cos’è un motore di ricerca e cosa si intende per indicizzazione e posizionamento? Un motore di ricerca è un programma che, su richiesta, analizza un insieme di dati e restituisce un indice dei contenuti disponibili classificandoli in modo automatico. Il più utilizzato sul web è Google, ma in linea di massima tutti i motori di ricerca attualmente esistenti compiono quattro funzioni fondamentali: Scansione del web tramite appositi software detti crawler; Costruzione dell’indice; Calcolo della rilevanza e dell’ordine dei risultati delle ricerche; Presentazione dei risultati delle ricerche. Capito il funzionamento dei motori di ricerca possiamo affrontare il tema sull’ indicizzazione e il posizionamento. Sono i motori di ricerca che indicizzano i siti, questa operazione è semplice e alquanto banale da compiere, infatti, se si utilizza come motore di ricerca Google basta andare sul sito www.google.it/addurl e cliccare su aggiungi url. In altre parole, indicizzare un sito web significa aggiungerlo all’indice di Google, questo “memorizza” le pagine del sito e le rende visibili nelle sue liste di ricerca in base al contenuto presente in esse. A tal proposito è importante sottolineare che i motori di ricerca non possono interpretare testi, vedere immagini o guardare video nella stessa maniera in cui può farlo un essere umano; essi si basano su meta informazioni delle pagine e dei siti per poter ordinare i contenuti secondo una logica pertinente. Da qui, l’importanza dei tag title, e dei meta-tag description, keywords e robots, che sono denominati fattori di successo per l’ottimizzazione dei siti (piuttosto che ranking factors). Come fare praticamente? Il tag title consente al motore di ricerca di capire di cosa “parla” una determinata pagina web, assegnandole appunto un titolo. Il meta-tag description, permette di specificare la descrizione della pagina, ossia un breve riassunto dei contenuti che sono presentati in essa. Il meta-tag keywords, contiene delle parole chiavi mediante le quali si vuole essere ricercati, quindi si tratterà di inserire delle keyword che rimandino ai contenuti della pagina. Il meta-tag robots, fornisce ulteriori informazioni sui contenuti della pagina, più precisamente contiene indicazioni per gli spider. Esempio: <html> <head> <title>Dasir Tech</title> <meta name="description" content="Dasir Tech s.r.l. è una società di informatica, sviluppo web, software e consulenza situata a Casoria in provincia di Napoli. Si occupa principalmente di creazione di software adhoc in ogni linguaggio di programmazione, progettazione e sviluppo di siti web e portali, ricerca e tecnologia."> <meta name="keywords" content=" azienda, informatica, italiana, casoria, napoli, ingegneria, research, ricerca, technology, sviluppo, piattaforme, software, applicativi, gestionali, android, ios, web, agency, factory, siti,"> <meta name="robots" content="index,follow"> </head> <body> Il contenuto della tua pagina web </body> </html> Pertanto, la creazione di contenuti in grado di soddisfare in maniera esaustiva un reale bisogno di ricerca, aumenta notevolmente le possibilità di guadagnare un posizionamento elevato nei risultati. In definitiva possiamo affermare che mentre l’indicizzazione è un processo piuttosto automatico, il posizionamento non è detto che lo sia. Riuscire a posizionare un sito ai “piani alti” di un motore di ricerca è un’impresa piuttosto ardua, ma con qualche direttiva come quelle appena viste si dovrebbe riuscire nell’impresa. Nel prossimo articolo approfondirò il meta-tag  robots e vedremo cosa sono gli spider.

COME SI INDICIZZA UN SITO…PARTE 2

Quando cerchiamo qualcosa su un motore di ricerca, non cerchiamo effettivamente su internet ma nell’indice del Web del motore di ricerca che stiamo utilizzando.  Questo indice viene creato dopo una scansione di tutte le pagine del Web che avviene mediante programmi software, i cosiddetti spider (detti anche crawler o robot). Uno spider è un tipo di BOT, programma o script che automatizza delle operazioni. Ma come funzionano gli spider? Generalmente, gli spider memorizzano i contenuti dei documenti visitati e li inseriscono in un indice. Sul Web invece, gli spider analizzano i contenuti di una rete (o di un database), partendo da una lista di URL (indirizzo di una risorsa internet) da visitare. Durante l’analisi di un indirizzo, gli spider seguono tutti i link presenti nel documento e li aggiungono alla lista di URL da visitare in seguito. Gli indirizzi di questa lista, chiamata crawl frontier (“frontiera dell'indicizzazione”), vengono visitati ricorsivamente dagli spider, in modo da poter memorizzare eventuali modifiche e aggiornamenti. Gli URL e i collegamenti ipertestuali presenti nelle pagine della crawl frontier vengono a loro volta aggiunti alla lista generale e visitati successivamente. Quindi la struttura dei link del web serve a collegare tutte le pagine esistenti, poiché, attraverso i link, i robot automatici dei motori di ricerca possono raggiungere tutti i miliardi di documenti tra loro interconnessi. In tal modo viene a crearsi una vera e propria ragnatela di pagine internet, da qui la spiegazione del nome spider, ovvero un ragno che si muove in tale ragnatela. Infine è possibile dare agli spider delle indicazioni contenute all’interno del file robots.txt (protocollo di esclusione robot), di solito posto nella root del sito, su come eseguire l’indicizzazione di quest’ultimo, come ad esempio cosa scansionare e cosa no. Lo spider può seguire tali indicazioni o meno, di certo non è obbligato. Esempi di spider: Googlebot, è lo spider di Google, Slurp quello di Yahoo! mentre quello di Microsoft Live Search è Msnbot. Per dare istruzioni robots, cioè istruzioni agli spider dei motori di ricerca su cosa possono e non possono fare, possiamo utilizzare oltre al file robots.txt anche il meta tag robots. Questo, a differenza del file robots.txt che riguarda il sito complessivamente, si riferisce alla singola pagina in cui è presente. Vediamo come si usa praticamente: nell’head della pagina html si inserisce il meta tag il cui codice è: <meta name="robots" content="..."> All’interno dell’attributo content si inserisce l’istruzione per lo spider, i valori che questo attibuto può assumere sono: index - si richiede di indicizzare la pagina (di inserirla cioè nell'archivio del motore di ricerca); noindex - si richiede di non includere la pagina negli archivi del motore di ricerca; follow - si richiede che tutti i link presenti nella pagina vengano seguiti; nofollow - si richiede di non seguire i link che da quella pagina puntano verso altre pagine. Questi valori vengono combinati tra loro. Da questa combinazione ricaviamo quattro alternative: <meta name="robots" content="index, follow"> - lo spider indicizza le pagine e segue tutti i link; <meta name="robots" content="index, nofollow"> -  lo spider indicizza la pagina ma non segue i link; <meta name="robots" content="noindex, follow"> - lo spider non indicizza la pagina, ma segue i link che da quella pagina portano ad altre pagine. <meta name="robots" content="noindex, nofollow"> -  si richiede allo spider di non indicizzare e non seguire i link di quella pagina. Lasciando come name="robots" stiamo dando un'istruzione a tutti gli spider. Se volessimo restringere le istruzioni a singoli spider, dovremmo cambiare il name, ad esempio: <meta name="googlebot" content="index, follow"> In questo caso l'istruzione riguarda esclusivamente lo spider Googlebot.