vai al contenuto
 

Manuale per l'interazione con gli utenti del Web culturale
Prima edizione (Aprile 2009)
a cura di Pierluigi Feliciati e Maria Teresa Natale
MINERVA EC Working Group “Quality, Accessibility and Usability”


2.6      Misurazione dell’audience in Internet

Per misurazione dell’audience si intendono tutti i metodi impiegati per calcolare quante persone rientrano in una audience, ovvero un insieme di persone raggiunte da un messaggio (programma televisivo, pubblicità, contenuti multimediali, testi scritti ecc.).

In Internet, la misurazione dell’audience viene effettuata per diversi motivi, tra cui:

  1. l’analisi della programmazione: bisogna conoscere le caratteristiche e i comportamenti degli utenti per soddisfare i loro bisogni
  2. ricerche sociali: le istituzioni pubbliche devono monitorare i mezzi di comunicazione di massa (e quindi anche Internet) per comprendere il ruolo svolto dai media nel coinvolgimento dei cittadini
  3. vendita della pubblicità: molti media sono supportati dalla pubblicità e, oggi, non è inusuale che anche portali di interesse culturale si sostengano grazie al contributo di banner promozionali
  4. vendita di prodotti (ticketeria, bookshop, fotografie ecc.): è fondamentale dimensionare il bacino dei propri utenti e studiarne le evoluzioni in corso.

Finalità principale delle ricerche audiometriche è quindi la quantificazione del pubblico, non solo in termini di quantità, ma anche di caratteristiche socio-demografiche (sesso, età, titolo di studio, area geografica, luogo di fruizione, gusti, comportamenti ecc.).

Bisogna comunque tener conto di alcuni aspetti peculiari della rete. Nell’ambito delle comunicazioni di massa, Internet rappresenta una vera e propria rivoluzione: nei media tradizionali la comunicazione era da uno a molti, il Web, invece, è connotato dal concetto di “interattività”. Vi è una relazione in due sensi tra l’utente e il Web, un dialogo comunicativo continuo tra contenuto e navigatore. Inoltre va considerata l’importanza delle interfacce di tutti i nuovi media (Web, messenger, chat, blog ecc.), progettate per visualizzare i contenuti e interagire con essi in diverse modalità. Da un lato, l’utente esprime le proprie intenzioni al mezzo, dall’altro il sistema, tramite l’ausilio delle tecnologie in continua evoluzione, risponde alle azioni dell’utente, in un ciclo continuo. I nuovi media quindi sono in grado di percepire la volontà degli utenti attraverso dispositivi collocati nelle interfacce e proprio questo fa sì che siano in grado di monitorare direttamente i comportamenti in rete degli utenti.

Intento di questo capitolo è quello di mappare le tecniche e le metriche utilizzate per le misurazioni della audience nel Web.

Con questi metodi di rilevazione sono chiamate ormai a confrontarsi molte figure professionali, tra le quali produttori di contenuti online, professionisti dell’industria informatica, operatori della pubblica amministrazione e dell’e-government, webmaster, responsabili delle strategie commerciali in rete.

Queste tecniche si modificano nel corso del tempo, sia in conseguenza dello sviluppo tecnologico, sia in rapporto all’evoluzione e fruizione della rete.

Per familiarizzare con queste tematiche, elenchiamo le terminologie correntemente in uso su questi temi, che sono molto ampie e diversificate.

La letteratura infatti distingue tra:

  1. sistemi fondati su: a) base censuaria (census-based measurement), nelle quali la rilevazione viene effettuata sull’intero insieme dei dati pervenuti, senza piani di campionamento o proiezioni statistiche; b) sistemi basati su misurazioni di campioni (panel-based measurement)
  2. sistemi che realizzano misurazioni centrate sull’infrastruttura di rete (site-centric / server centric) oppure centrate sull’utente (user-centric)
  3. misurazioni fondate sull’esperienza del server (server experience) o incentrate sull’esperienza dell’utente (user experience)
  4. misurazioni centrate sui dispositivi di accesso alla rete (device-centric) oppure sistemi focalizzati sui visitatori (visitor-centric)
  5. strumenti di web analytics e servizi di audience measurement.

L’analisi quantitativa della audience, anche nell’ambito di altri media, fino ad oggi ha visto due approcci:

  1. le rilevazioni dei comportamenti di consumo mediale con strumenti automatici e passivi, che non prevedono il coinvolgimento diretto dell’utente
  2. la raccolta di informazioni tramite interviste o questionari somministrati all’utenza, che quindi viene direttamente coinvolta.

A partire dagli anni Novanta del Novecento, sfruttando le potenzialità innovative di Internet e del Web, questi due approcci hanno subito delle evoluzioni.

La rilevazione automatica dei dati, ovvero la raccolta e l’analisi del traffico online, viene ora genericamente indicata con il temine di web analytics, concetto che ingloba la capacità di registrazione dei server web (logging capabilities), le tecnologie di “etichettatura” dei contenuti digitali (tagging technologies), le possibilità di “annusamento” del traffico in rete (network sniffing), in altre parole un insieme di tecniche che attingono a fonti di dati diverse per misurare, analizzare e utilizzare le informazioni relative alle modalità di fruizione del Web da parte degli utenti.

D’altro canto, anche la raccolta di dati tramite indagini audiometriche più tradizionali (metering e interviste/questionari, vedi infra) si è a sua volta evoluta, sfruttando le potenzialità d’interazione via Web.

Non si può affermare in via assoluta se un metodo sia migliore di un altro, di volta in volta va verificato quale metodologia utilizzare rispetto alle necessità di recupero delle informazioni e alle risorse disponibili.

Uno degli aspetti fondamentali è quello relativo alle modalità di raccolta dei dati:

  1. in “modalità censuaria” (census data), quando la rilevazione viene effettuata sulla totalità della popolazione di riferimento
  2. in modalità “campionaria” (sample data), quando la rilevazione viene effettuata su campioni di popolazione.

Naturalmente, l’alto costo delle misurazioni e delle analisi dei dati induce a privilegiare le rilevazioni campionarie rispetto a quelle censuarie.


2.6.1      Rilevazioni censuarie: web analytics

Con il termine di web analytics si intende lo studio del comportamento degli utenti della rete. Questo sistema di rilevazione, di tipo censuario, non comporta il coinvolgimento diretto dei soggetti da misurare.

 Si può effettuare una classificazione di questi sistemi di misurazione in base alle fonti di rilevamento (data souces) dei comportamenti degli utenti sul Web:

  1. rilevazione centrata sul server (server based): il server web registra le richieste di accesso (log) alle pagine di un sito web, le archivia e le analizza
  2. rilevazione centrata sul browser (browser-based): in questo caso, la rilevazione è effettuata dal computer dell’utente (client). Il browser richiama le pagine di un sito ospitato su un web server  e queste vengono “instrumentate” con una forma di codice (tag), tramite una tecnologia sofisticata. Questa tecnica si fonda sulla convinzione che le misurazioni debbano essere effettuate in un punto più vicino al luogo e al momento dell’effettivo consumo mediale delle risorse di un sito, cioè l’istante in cui il browser carica e quindi visualizza le pagine web sullo schermo dell’utente
  3. rilevazione centrata sul network (network based): la rilevazione avviene al livello dei proxy server degli Internet service provider che smistano le richieste di risorse dei diversi client verso un server web che ospita un sito. In pratica, tutte le pagine consultate dagli utenti vengono raccolte e analizzate da questi nodi intermedi dell’architettura di rete (network). Strumentazioni sofisticate “annusano” (sniff) le richieste di pagine, successivamente i dati raccolti vengono elaborati per analizzare il traffico in rete.

Diversi software e servizi di web analytics sono disponibili a pagamento o in open source (per esempio, Google Analytics, Shinystat, AWStats ecc.).


2.6.2      Rilevazioni campionarie o centrate sull’utente

Riprendendo una definizione del Comitato tecnico australiano per l’industria di Internet la metodologia di rilevazione centrata sull’utente deriva «dalla registrazione dell’attività di un campione di utenti di Internet che vengono reclutati per essere rappresentativi dell’intero universo degli utenti di Internet». Il comportamento di questi soggetti campione viene, successivamente, proiettato per stimare il comportamento dell’intera popolazione degli utenti di Internet attraverso opportune operazioni di proiezione statistica.

Gli elementi fondamentali su cui si basa un sistema di misurazione “centrato sull’utente” sono due: l’individuazione di un campione di utenti Internet, rappresentativi di una totalità, e l’attività vera e propria di monitoraggio dei comportamenti online di questi individui, attraverso un dispositivo elettronico che registra i dati.

Il campione selezionato viene generalmente indicato come panel (secondo Wikipedia, il panel è «la ‘quantità’ scelta su criteri rappresentativi, utilizzata per la misura statistica di uno specifico universo. Si tratta solitamente dell’insieme di persone o famiglie incluse in un’indagine campionaria»).

La selezione di un campione da una popolazione può essere effettuata secondo modalità diverse, la campionatura deve però riflettere il più possibile la popolazione totale da cui è stata estratta, proprio per poter successivamente estendere le informazioni parziali alla totalità della popolazione indagata. In genere, si tende a privilegiare la selezione di “campioni casuali” o “probabilistici”, che non risentano delle influenze e delle inclinazioni degli analisti. I panel sono quindi dei campioni statistici rappresentativi di un certo ambito, sui quali viene effettuato un certo numero di misurazioni più o meno continuative o distanziate nel tempo. Tali rilevazioni hanno il vantaggio di fornire dati sull’evoluzione nel tempo di determinati fenomeni.

Ma come si recluta un panel? In genere, gli istituti di ricerca adottano diverse tecniche, tra cui la ricerca telefonica a digitazione numerica randomica oppure le interviste personali con incontri di selezione in presenza, oppure più recentemente sistemi di reclutamento via posta o Web, anche se questi ultimi rischiano di falsare la natura casuale del reclutamento, sbilanciato verso i soli consumatori della rete.

La metodologia di rilevazione centrata sull’utente (tramite panel) è fortemente caldeggiata anche nel corso della progettazione di siti web accessibili a tutte le categorie di utenti, inclusi quelli svantaggiati, ad esempio nella normativa italiana.

APPROFONDIMENTO

La legge 9 gennaio 2004, n. 4 Disposizioni per favorire l’accesso dei soggetti disabili agli strumenti informatici stabilisce all’art. 11 che, con decreto del Ministro per l’innovazione e le tecnologie vengano indicate:
a) le linee guida recanti i requisiti tecnici e i diversi livelli per l’accessibilità;
b) le metodologie tecniche per la verifica dell’accessibilità dei siti Internet, nonché i programmi di valutazione assistita utilizzabili a tale fine.

Nel regolamento di attuazione della legge, sono previsti due tipi di verifica:

  1. verifica tecnica: valutazione condotta da esperti, anche con strumenti informatici, sulla base di parametri tecnici (articolo 1 del Regolamento)
  2. verifica soggettiva: valutazione articolata su più livelli di qualità ed effettuata con l’intervento del destinatario, anche disabile, dei servizi sulla base di considerazioni empiriche (articolo 1 del Regolamento)

[In particolare, in merito alla verifica soggettiva], la metodologia di progettazione dei siti Web centrata sull’utente prevede le fasi iterative di:

  • Definizione degli obiettivi del prodotto Web;
    – Analisi del contesto d’uso;
    – Definizione delle specifiche;
    – Elaborazione di un primo prototipo (mockup);
  • Sperimentazione e valutazione di soluzioni alternative (punto di iterazione);
    – Adozione della soluzione;
    – Sviluppo del prodotto Web;
  • Valutazione sperimentale (punto di iterazione);
    – Eventuali correzioni;
    – Rilascio del prodotto Web;
  • Valutazione con l’utente nel contesto d’uso (punto di iterazione);
    – Eventuali correzioni ed indicazioni per l’aggiornamento;
  • Monitoraggio (punto di iterazione).

Questa metodologia si fonda su quattro principali condizioni:

  1. la costituzione di un gruppo rappresentativo di utenti o panel: nel panel devono essere presenti utenti con diversi tipi di disabilità e anche i diversi ruoli e scopi per cui un utente ha interesse ad entrare nel sito
  2. la costruzione di scenari d’uso: definire contesti, scopi, e modi di interazione con il sito. È sulla base di questi scenari che il sito viene immaginato, progettato, valutato e continuamente aggiornato e migliorato
  3. la progettazione evolutiva: il sito va sottoposto a valutazione da parte del panel sulla base di più scenari complessi. La valutazione è finalizzata alla definizione dei nuovi requisiti e delle nuove finalità. La definizione delle nuove finalità va condotta in modo iterativo attraverso la produzione di prototipi anche a bassa fedeltà, ma che consentono di valutare le soluzioni, individuare vincoli e stabilire la fattibilità. Il confronto continuo con il panel consente una valutazione in progress delle soluzioni e anticipa la valutazione finale del progetto. Infine il panel diventa un osservatorio dell’uso del sito finalizzato all’aggiornamento e al miglioramento continuo
  4. il monitoraggio: poiché, come già ricordato, è importante assicurarsi che il sito non rimanga identico a se stesso nei contenuti per troppo tempo, è necessaria una azione continua di monitoraggio per il costante miglioramento in funzione della dinamica dei bisogni e degli interessi.

La costituzione del panel è quindi l’elemento centrale della metodologia perché:

  • garantisce il livello di realismo, ma anche di consenso e comunicazione sul progetto. Potrebbe avere, da questo punto di vista, due dimensioni di rappresentatività: disabilità e categorie professionali
  • produce dati e idee e consente di prendere decisioni empiricamente fondate. Da quest’ultimo punto di vista il panel è un luogo di sperimentazione delle opportunità, ma anche dei vincoli delle tecnologie dedicate di accesso e di interazione.

Studio sulle linee guida recanti i requisiti tecnici e i diversi livelli per l’accessibilità e le metodologie tecniche per la verifica dell’accessibilità. Legge 4/2004, art. 11, comma 1, lettere a) e b)
http://www.pubbliaccesso.gov.it/biblioteca/documentazione/studio_lineeguida/index.htm

2.6.2.1      Meter

Il meter, genericamente utilizzato nei media tradizionali, è uno strumento di misurazione di quantità (metering device) in forma di software scaricato e installato sui computer dei soggetti da monitorare. L’idea di applicare questa tecnica di monitoraggio in ambito informatico risale al 1994, quando venne applicata da un gruppo di ricercatori per quantificare la diffusione e l’impiego dei software applicativi, dal momento che gli unici dati disponibili erano quelli di vendita.

Dei dispositivi di misurazione (meter) vennero installati su un campione (panel) di utenti per registrare in automatico l’utilizzo di programmi applicativi sul personal computer (es. Word, Excel). Ci si accorse sorprendentemente che il meter non registrava solo questo tipo di informazioni, ma anche i percorsi di navigazione degli individui soggetti a monitoraggio. Perciò si potevano conteggiare anche le pagine web visitate.

Nacque quindi il PC meter, primo dispositivo di monitoraggio automatico passivo delle navigazioni Internet da impiegare nelle indagini campionarie.

Questo sistema di rilevazione comporta un coinvolgimento minimo dei soggetti da analizzare, però a differenza dei sistemi centrati sui server e sui browser (devices-based measurement), rivolti ad analizzare “utenti macchina”, è effettivamente “centrato sull’utente” (user-centric measurement). Non sono più le macchine e i loro software a essere monitorati, ma gli individui singoli con le loro specificità socio-demografiche e comportamentali.

I processi su cui si basa il software di monitoraggio (meter) collocato sui PC dei panelisti sono sostanzialmente tre: identificazione univoca dell’individuo che naviga; registrazione dei dati relativi al suo percorso di navigazione; invio delle registrazioni agli enti preposti all’analisi delle misurazioni.

Le misurazioni basate su panel con meter sono quanto di più approfondito vi sia attualmente per raccogliere dati sulla profilazione (profiling) dei navigatori, sulle graduatorie tra i siti (ranking), sull’analisi dei flussi di audience tra siti (source&loss).

Le operazioni di una misurazione tramite panel e meter sono fondamentalmente le seguenti:

  1. definizione del target e dei comportamenti da rilevare (ad esempio, individui tra i venti e i quarant’anni che utilizzano Internet e applicazioni media digitali da casa negli ultimi sei mesi)
  2. quantificazione della dimensione di questa popolazione
  3. reclutamento del panel
  4. raccolta dei dati tramite il meter
  5. espansione dei dati raccolti sul totale della popolazione.

I vantaggi di questo tipo di analisi sono:
–    profilazione socio-demografica
–    analisi della concorrenza
–    monitoraggio dei flussi (source&loss)
–    raggruppamento per settori
–    misurazione delle pagine in memoria cache
–    individuazione degli utenti unici
–    esclusione automatica del traffico non umano.

Gli svantaggi sono:
–    misurazione solo da alcuni luoghi
–    rilevazione limitata a siti con traffico significativo
–    investimenti sostenuti
–    dati rilevati non sempre proprietari
–    difficoltà di profilare parti del sito a traffico limitato.

2.6.2.2      Intervista standardizzata (vedi anche 3.2)
Per effettuare ricerche sulle audience dei media, inclusi siti web e portali, la modalità più diffusa d’indagine è l’intervista standardizzata, realizzata attraverso la tecnica della somministrazione di domande strutturate, proposte a tutti gli utenti oppure a un insieme di individui selezionati. Questo sistema di rilevazione comporta quindi il coinvolgimento diretto dei soggetti da analizzare. Lo scopo è quello di indagare le loro preferenze, abitudini e comportamenti, per verificare l’efficacia in termini di gradimento delle scelte effettuate o per approfondire specifici comportamenti nel corso delle navigazioni in rete, in altre parole per ricostruirne il “profilo”.
La selezione degli intervistati può essere casuale o non casuale, a seconda che si basi sulla scelta probabilistica o meno degli intervistati.

Tra i metodi casuali di selezione del campione vi sono:

  1. sondaggi di intrattenimento (entertainment survey o polls): brevi richieste di giudizio su vari argomenti
  2. ricerche da auto-selezione non controllata (unrestricted self-selected survey): presenti in genere su portali e siti a grande traffico, sono inviti a partecipare a una survey
  3. campione di volontari auto-candidati (volunteer opt-in panel): volontari auto-candidati reclutati attraverso siti e portali che, dopo essersi registrati e profilati, vengono successivamente contattati all’avvio dell’indagine vera e propria.

Tra i metodi non casuali di selezione del campione vi sono:

  1. interviste intercettate tra i navigatori di un sito (intercept survey): questionari auto-compilati dal visitatore e “intercettati” randomicamente
  2. campioni basati su liste di nominativi conosciuti (list-based sample): questionari più o meno approfonditi somministrati a liste di utenti con accesso a Internet (ad esempio, gli iscritti a una newsletter, gli iscritti a una biblioteca, gli amici di un museo ecc.)
  3. panel pre-reclutati (pre-recruited panels): reclutamento di utenti non auto-selezionati o volontari, ma scelti con metodi di campionamento probabilistico.

Le interviste possono essere effettuate telefonicamente o di persona, inviate tramite e-mail (e-mail survey), direttamente attraverso il Web (web interviewing, web-based survey), sfruttando un’interfaccia grafica, di semplice e immediato utilizzo, per visualizzare le domande e raccogliere le risposte.

Il questionario online può essere somministrato in modo sistematico utilizzando le tecnologie offerte dal Web (in corrispondenza dell’entrata o dell’uscita da un sito, dello specifico ammontare di tempo speso su un sito, di uno specifico comportamento di navigazione, ogni n accessi al sito ecc.), è necessario però evitare che il visitatore venga esposto di continuo all’invito a partecipare all’indagine.

In genere, il questionario online può essere visualizzato a schermo intero o entro finestre di varia dimensione (pop-up). Si compone di una serie di domande erogate in diverse modalità (aperte, chiuse, singole, multiple ecc.) e con le quali si interagisce attraverso soluzioni grafiche interattive (bottoni, liste a tendina, riquadri, frecce di avanzamento ecc.).

Per l’efficacia dell’intervista e per la qualità dei risultati, si suggerisce di utilizzare un linguaggio semplice e di dedicare una certa cura alla funzionalità e all’estetica (look and feel) del questionario. Si consiglia di premettere la durata prevista per l’intervista: in fondo, si chiede agli utenti di dedicare un po’ del loro tempo ad aiutarci!

La sequenza delle domande deve essere coerente e dinamica, impedendo dichiarazioni multiple, fino alla conclusione dell’intervista e alla pagina finale di ringraziamento (thank you page). Il ringraziamento può limitarsi a due righe scritte al termine del questionario, oppure a un’e-mail di risposta con un contenuto testuale del tipo: «Grazie! Il tuo questionario ci è stato inoltrato correttamente...».

Obiettivo di una presentazione gradevole e di una struttura efficace è il raggiungimento del maggior numero di interviste complete, minimizzando i tassi di rifiuto o incompletezza.

Il questionario può essere l’occasione per fidelizzare l’utente iscrivendolo alla newsletter oppure ricompensarlo per le energie spese nel compilarlo, “regalandogli” risorse usualmente a pagamento oppure riservate (gadget digitali e non, iscrizione a notiziari, privilegio di collaborare sui contenuti ecc.

I risultati possono essere utilizzati attraverso elaborazioni statistiche oppure estrapolandone singoli suggerimenti per intervenire sulla propria applicazione web.

Si consiglia, al termine dell’analisi, di pubblicare i risultati di questi sondaggi (website feedback survey results), indicando il numero dei questionari analizzati e i suggerimenti che verranno o sono già stati accolti e implementati nell’applicazione web.

I vantaggi di questo tipo di tecnica sono i seguenti;
–    costi contenuti
–    tempi di progettazione e realizzazione rapidi
–    capacità di raggiungere utenti dispersi sul territorio
–    possibilità di impiegare contenuti multimediali (audio e video)
–    controllo in tempo reale dei processi.

La grande criticità è costituita dalla veridicità delle affermazioni che l’intervistato fornisce in merito alla propria identità, questione resa ancor più complicata dalle nuove realtà di Internet che vedono l’accrescimento di “sé virtuali” (giochi di ruolo, chat, avatar, nicknames ecc), anche se gli studi in questo settore ancora non risultano consolidati.
 


2.6.3      Le metriche di audience

L’obiettivo principale delle metriche di audience, nate in ambito pubblicitario e di marketing, è quello di fornire indicatori numerici qualitativi e quantitativi, utili ad analizzare e comprendere l’efficacia e le prestazioni rispetto ai contenuti e ai servizi proposti dalla propria applicazione web.

Le audience trasposte in numeri si definiscono ratings.

Se nei media tradizionali i sistemi di misurazione sono ormai standardizzati (ad esempio, minuto medio per la TV, quarto d’ora medio per la stampa ecc.), ciò non è altrettanto vero per quanto riguarda Internet e il Web. Vediamo le differenze.

Nel caso dei media tradizionali, la relazione intercorrente tra il mezzo (TV, radio, cinema, stampa ecc.) e il pubblico (telespettatori, radioascoltatori, lettori) viene individuata tramite la misurazione dell’“esposizione” (exposure), senza indagare approfonditamente le motivazioni e gli effetti di questa esposizione; nel caso di Internet, a partire dagli anni Novanta, sono state individuate nuove metriche (e-metrics, web-metrics, net-ratings) per indagare e quantificare le relazioni tra utenti e contenuti digitali. Il nuovo medium non è più caratterizzato dalla sola logica “espositiva”, ma diviene uno spazio d’azione “interattivo”. Lo “spettatore” si trasforma in “utente attivo”.

In termini concettuali, con “interazione in Internet” si intende l’impiego sul Web di uno spazio di dimensione variabile nel quale collocare dei dati (informativi, promozionali, pubblicitari, multimediali ecc. ) affinché l’utente non si limiti a visualizzarli ma sia spinto a interagire fornendo una forma di risposta. Questa strategia può essere definita “chiamata all’azione” (call to action), nel senso che i contenuti vengono pubblicati in rete invitando l’utente a “fare qualcosa!” e specifcando anche “cosa fare”. Strettamente collegato a questo concetto è anche il cosiddetto “processo a imbuto” (funnel): l’utente è coinvolto in vari processi che lo portano dall’essere semplice visitatore a innescare delle procedure interattive reagendo alle comunicazioni cui è esposto. Questo processo, particolarmente importante nell’ambito dell’e-commerce, consente quindi di verificare in tempo reale l’effetto della comunicazione sul comportamento dei navigatori.

Molte sono le forme di interazione: cliccare su un banner, compilare una form o un questionario, effettuare un ordine di acquisto, scaricare delle applicazioni, partecipare a uno strumento di comunità, postare dei file, utilizzare un aggregatore di contenuti ecc.).

Nell’ambito delle metriche di esposizione (exposure metrics) questi sono i principali indicatori, ognuno dei quali a sua volta è connesso a metriche più specifiche:

  1. Impressions (esposizioni): numero di banner inseriti, fissi o variamente animati, visti dall’utente
  2. Page views (pagine viste): numero di pagine web richieste e visualizzate dall’utente
  3. Visits o sessions (visite o sessioni): numero di visite ad un sito effettuate dagli utenti. Per visita o sessione si intende la visualizzazione di una serie di pagine da parte di un utente senza che si verifichi un periodo di inattività superiore ai 30 minuti tra una pagina e l’altra
  4. Unique visitors (visitatori unici): numero dei singoli utenti che hanno visitato il sito, al netto delle duplicazioni
  5. Time spent (tempo speso): tempo trascorso in minuti e secondi per navigare o visualizzare le pagine di un sito o fruire di un’applicazione digitale
  6. Frequency (frequenza): numero medio di visite a un sito o di utilizzazione di un’applicazione digitale da parte di un singolo individuo.

Nell’ambito delle metriche da interazione (interactivity metrics) si può distinguere tra:

  1. esposizioni passive, indagabili tramite il calcolo delle page views, ed esposizioni attive, identificabili con l’azione del click, corrispondenti alle caratteristiche del navigatore, ora viewer ora clicker (contrapposizione Google/Yahoo)
  2. metriche per monitorare la fruizione di contenuti (content metrics) e metriche per monitorare le attività legate al commercio elettronico (commerce metrics).

Le metriche di “interazione”(interactivity metrics) vengono utilizzate soprattutto nel settore del marketing, ma possono essere importanti anche nell’ambito delle applicazioni web culturali. Gli indicatori più importanti sono:

  1. Click-through (atto di cliccare su un annuncio o banner): numero assoluto di azioni di click effettuale durante una campagna promozionale, che nel campo del marketing è connesso anche al concetto di pay per click (pagamento per i click generati
  2. Click-through rate (tasso di click through): nell’ambito di una singola campagna, rapporto tra i click generati da un banner e il totale delle visualizzazioni dello stesso annuncio
  3. Conversion (conversione): completamento con successo delle fasi di un processo finalizzato a un esito in rete (ad es. iscrizione a una newsletter, scaricamento di un media, acquisto di un prodotto ecc.)
  4. Conversion rate (tasso di conversione): rapporto tra le operazioni di conversione effettuate con successo e totale delle potenziali conversioni
  5. Interaction rate (tempo speso nell’interazione): tempo medio speso nell’interazione con un annuncio.

Naturalmente per una corretta analisi dei risultati, sarà necessario anche tenere conto degli indicatori che analizzano i  risultati negativi:

  1. Abandonment rate (tasso di abbandono): percentuale di processi non portati a buon fine rispetto ai processi avviati
  2. Churn rate (tasso di cancellazione): percentuale di cancellazioni (ad esempio, a una newsletter)
  3. Bounce rate (tasso di rimbalzo): percentuale di mancate consegne (ad esempio, di e-mail).

Nell’ambito dell’interazione è importante, conoscere anche altri concetti:

  1. Inquiry (richiesta di informazioni): numero delle richieste di informazioni inviate dall’utente direttamente via Web
  2. Lead (utente profilato): concetto che indica che un utente ha fornito in rete informazioni sulle proprie preferenze
  3. Search (ricerca di informazioni): numero delle ricerche che l’utente effettua su un sito utilizzando un sistema di ricerca interno all’applicazione web
  4. Registration (registrazione): numero delle registrazioni effettuate dagli utenti per l’accesso a informazioni o servizi
  5. Order (ordine): numero di ordini effettuati dagli utenti per acquisire prodotti o servizi.

Anche se non analizzati approfonditamente in questo contesto, non vanno poi dimenticati gli indicatori relativi ai costi della comunicazione, ovvero gli investimenti realizzati per generare attenzione (costi per esporre le informazioni) o per generare azione (costi per indurre all’interazione).


2.6.4      Analisi dei file di log

I server che ospitano le applicazioni web inviano agli utenti contenuti testuali, immagini, file multimediali ecc. Per incrementare il tasso di soddisfazione degli utenti è necessario monitorare e analizzare puntualmente le richieste dei navigatori. In genere, le piattaforme di gestione dei contenuti in rete offrono la possibilità di raccogliere e archiviare i dati relativi alle attività del server web, registrando tutti i processi. Ogni fornitore di soluzioni server include nei propri sistemi delle funzionalità di registrazione delle attività operative (logging capabilities), che hanno lo scopo di collezionare informazioni dettagliate sull’utilizzo del sito da parte degli utenti, analizzate poi da diverse figure professionali, in relazione alle specifiche competenze (tecniche, scientifiche, di ricerca, di marketing).

L’interpretazione dei dati del traffico in rete consente di estrarre degli indicatori relativi, per esempio, al numero degli accessi, ai percorsi di navigazione, ai modelli di comportamento, alle configurazioni tecniche dei dispositivi utilizzati per la connessione.

Le richieste di pagine web effettuate dagli utenti vengono memorizzate nella forma di file di log (log file) che contengono quindi il risultato delle operazioni di registrazione delle attività svolte da un server web. Data la mole notevole di questa tipologia di file, la loro elaborazione viene in genere effettuata da software specifici chiamati log analyzers. Questi ultimi classificano i log per tipologia, cioè log degli accessi (richieste di pagine giunte al server con memorizzazione di ora e data della richiesta, indirizzi IP del computer che chiede la risorsa, nome della risorsa richiesta dall’utente); log degli errori (registrazione dei malfunzionamenti nelle richieste di risorse); log referenziali (registrazione delle URL da cui proviene l’utente, dei motori di ricerca utilizzati e delle parole chiave digitate); log degli agenti (registrazioni delle informazioni inerenti i browser utilizzati dall’utente).

L’analisi dei file di log, di tipo censuario e non campionario, deve però tener conto di ampi margini di approssimazione nei dati raccolti attraverso i server web.

I vantaggi di questo tipo di analisi sono molteplici:

  • non sono richieste installazioni particolari
  • i dati rilevati sono proprietari e sia il corrente che lo storico sono sempre disponibili
  • tutti gli eventi che intercorrono nel server vengono memorizzati
  • vengono analizzati i dati anche di siti a basso traffico.

Questi invece gli svantaggi più evidenti:

  • difficoltà di standardizzazione delle metriche
  • una parte significativa delle risorse visitate sfugge alla rilevazione del server (difficoltà nella rilevazione delle pagine dinamiche)
  • nessuna rilevazione del traffico da memoria o cache, derivante da meccanismi di duplicazione e archiviazione temporanea delle risorse visitate dagli utenti, che le possono recuperare senza l’ausilio diretto del server, bensì attraverso i proxy server o cache web installati sui computer di rete locale collegati a Internet
  • difficoltà del calcolo del tempo realmente trascorso su una pagina (la richiesta di una risorsa non comporta la sua necessaria visualizzazione)
  • mancanza di dati socio-demografici
  • mancanza di dati sulla concorrenza
  • mancata certificazione o verifica dei dati rilevati da parte di enti terzi, dal momento che tutti i processi sono gestiti direttamente dalle piattaforme software.

2.6.5      Tutela della riservatezza

La misurazione della audience online attiva processi di acquisizione di dati personali degli utenti che navigano in rete.

Nel caso di ricerche su campioni di individui intervistati o meterizzati, gli utenti monitorati vengono avvisati preventivamente delle procedure audiometriche in corso e quindi sono consapevoli delle operazioni di raccolta di informazioni che li riguarda; nel caso delle tecniche di web analytics, le rilevazioni sono automatiche e gli individui “misurati” non sono consapevoli dei procedimenti in corso.

In ambedue i casi, si dovrebbe tener conto delle norme in materia di diritto alla riservatezza e di tutela dei dati personali in Internet.

La Direttiva 2002/58/CE del Parlamento europeo e del Consiglio del 12 luglio 2002 relativa al trattamento dei dati personali e alla tutela della vita privata nel settore delle comunicazioni elettroniche2 prevede che l’utilizzo di strumenti di raccolta dei dati debba essere reso noto ai soggetti monitorati affinché la raccolta sia trasparente e nello stesso tempo sottolinea che questi strumenti, se legittimamente impiegati sfruttando le potenzialità informatiche delle tecnologie digitali, sono da ritenersi legittimi al fine di migliorare i servizi online destinati agli utenti.

Il World Wide Web Consortium (W3C) propone l’utilizzo di una soluzione standardizzata nota come P3P (Platform for Privacy Preferences Project)3, un  protocollo che consente ai siti web di dichiarare come intendono utilizzare i dati raccolti presso gli utenti che navigano in rete.

Diamond, Fran. Web Traffic Analytics
and User Experience. 28 July 2003
http://www.boxesandarrows.com/view/web_traffic_analytics_and_user_experience

Double Click. Internet Audience Dynamics:
How Can You Effectively Use Online
as a Reach Medium?. September 2004
http://www.doubleclick.com/insight/downloadResearch.aspx?fileName=dc_internetauddynamics_0409.pdf

Esomar
http://www.esomar.org

Web Analytics Association. Web Analytics Key Metrics and KPIs, Version 1.0, 2005
http://www.webanalyticsfacts.nl/wp-content/documents/waa-kpi-definitions-1-0.pdf

Accoto, Cosimo. Misurare le audience in Internet: teorie, tecniche e metriche
per la misurazione degli utenti in rete. Milano: Franco Angeli, 2007
(con ampia bibliografia)


2 Per il testo di questa direttiva e di altre norme in materia, si consulti il sito dello European Data Protection Supervisor, <http://www.edps.europa.eu/EDPSWEB/edps/lang/en/pid/17>.

3 <http://www.w3.org/P3P/>.


cover of  handbook

 

About

Structure

Interoperability

Quality, accessibility, usability

Best Practices