La percezione della qualità dell'e-learning da parte dei formatori: modelli, criteri, strategie

Pagina creata da Emanuele Orsini
 
CONTINUA A LEGGERE
La percezione della qualità
dell'e-learning da parte dei
formatori: modelli, criteri,
strategie
di Brunella Longo*

    Nelle note seguenti riprendo dati e riflessioni che ho avuto modo di condividere
negli ultimi tempi con colleghi AIF e studenti, in occasione di incontri e seminari e, in
particolare, in occasione di una testimonianza al Master “Progettista e Gestore di
Formazione in Rete” dell’Università di Firenze avvenuta nella primavera del 2004.
    L’interesse per la qualità dell’e-learning cresce via via che si sgonfia la bolla
speculativa (vedi fig.1) e aumenta l’attenzione della politica comunitaria, degli addetti
ai lavori e di alcune fasce dell’utenza potenziale interessate a favorirne lo sviluppo.

   [fig. 1]

    Perciò il tema della qualità dell’e-learning è di grande attualità: esso intercetta il
fermento dell’innovazione tecnologica che accomuna tutti gli stakeholder ma anche la
pervasiva e progressiva crescita di sensibilità per gli indicatori di performance e la
cultura della valutazione.
    Il Consiglio e la Commissione delle Comunità Europee sollecitano iniziative
trasversali a tutto il comparto dell’educazione e della formazione. Si moltiplicano così
ricerche, progetti, tesi di laurea, reti di collaborazione europee con l’obiettivo di
proporre nuovi indicatori, nuovi modelli e modalità di rilevazione della qualità dell’e-
learning. L’osservatorio EQO (European Quality Observatory) ha proposto, per
esempio, un framework concettuale (EQO, 2004) per la descrizione, l’analisi e la
comparazione dei diversi modelli di rilevazione della qualità dell’e-learning messi in
atto in questi ultimi anni. Secondo il modello EQO i vari approcci sono riconducibili a
quattro categorie, a seconda della loro maggiore o minore specializzazione (fig. 2).

   [fig. 2]

                                            1
Nella maggior parte dei progetti europei si cerca di andare incontro all’esigenza di
disporre di indicatori rapidi per rilevare o giudicare il livello di conformità di processi e
di prodotti e-Learning alle aspettative di qualità di committenti e utenti finali: questa
esigenza è stata soddisfatta da istituzioni ed enti di ricerca anglo-americani come la
NEA statunitense (National Education Association) o la inglese BAOL (British
Association of Open Learning) fin dalla seconda metà degli anni Novanta. Attraverso
benchmarks, checklist, linee guida si cerca di comprendere quali sono i criteri su cui
basare delle valutazioni, tanto più rilevanti se si deve giustificare un approccio all’e-
learning motivato, anzitutto, dalla ricerca di efficienza e di risparmi sui costi della
formazione tradizionale.
    Nella competizione con gli USA e con l’emergente concorrenza asiatica anche in
questo settore (pochi sanno, forse, che l’Università a distanza cinese è stata più veloce
della Open University inglese nell’adottare internet), la vecchia Europa tende a volte a
qualche scatto di sorprendente, salutare riduzionismo. Scopriamo così che, nell’ambito
del progetto DELOS (Developing a European e-Learning Observation), la valutazione
della qualità dell’e-learning viene ricondotta a soli quattro indicatori essenziali
(ovviamente contornati da decine di altri parametri relativi al contesto di erogazione
della formazione a distanza):
1. il tasso di abbandoni o dropouts;
2. la percentuale di docenti che intravvede progressi nell’apprendimento, come
    conseguenza dell’e-learning;
3. la percentuale di discenti che intravvede dei progressi nell’apprendimento, come
    conseguenza dell’e-learning;
4. la soddisfazione dei discenti.
    In questi “quattro numeri” possiamo leggere la conferma del fatto che le tendenze
valutative attuali promuovono un approccio integrato tra indicatori di performance da
un lato e indicatori di qualità percepita dall’altro, con una prevalente enfasi sui secondi,
e una costante ricerca del consenso tra gli attori di questo processo.
    La qualità percepita è in grado, insomma, di rispecchiare l’impostazione centrata
sull’utente che appartiene a tutto il mondo dei servizi di informazione e formazione e
che assume sempre più rilevanza: dagli studi americani sugli abbandoni e
sull’intelligenza emotiva abbiamo avuto negli ultimi anni molte sollecitazioni a
considerare se non vi siano ambiti di miglioramento del modo di progettare la
formazione on line per gli adulti proprio grazie all’ascolto attivo e alla sistematica
rilevazione del feedback dei partecipanti.
    I sistemi di valutazione dei processi di formazione in presenza, che sono
riconducibili a questo approccio, potrebbero pertanto essere proficuamente estesi
anche all’e-learning.

    Modelli di valutazione della qualità praticati prima e dopo internet

   Peccato però che secondo una recente ricerca (Isfol e Politecnico di Torino, 2002) su
un campione di 350 grandi imprese italiane, solo il 41% dispone di un sistema di
valutazione dei risultati (Vdr): si tratta di una pratica frequente, infatti, solo nelle
imprese di maggiori dimensioni e dove gli investimenti in formazione sono più elevati.
Al contrario, la maggior parte di coloro che svolgono attività di formazione nel nostro

                                             2
paese non la praticano, e lavorano in una diffusa indifferenza per la valutazione della
formazione. Tra le variabili oggetto di monitoraggio nelle grandi imprese che hanno un
sistema di Vdr risulta nettamente predominante il gradimento dei contenuti, rilevato nel
72% dei casi e la conformità del corso alle aspettative del discente, che viene rilevata
nel 61% dei casi. Il gradimento dei docenti è rilevato solo nel 51% dei casi (e spesso
costituisce, a mio parere, ancora un vero e proprio tabù, soprattutto laddove l’offerta è
progettata attorno ai “nomi” dei docenti coinvolti e non già alle fasi e alle attività del
processo di apprendimento che si propone).
    Le aziende che fanno a meno di un sistema di Vdr ritengono, sempre secondo
questa fonte, che la Vdr non rappresenti davvero una priorità per l’organizzazione
oppure che impiantare un sistema di controllo affidabile sia troppo costoso in termini di
tempo e denaro, persino per rilevare il gradimento dei partecipanti alle attività
formative.
    In questo contesto, che definire arretrato è un eufemismo (io preferirei con il
sociologo Castells, brutalmente, l’aggettivo “feudale”) servirebbero grandi sforzi
creativi e di costante verifica e allineamento tra modelli teorici, esperienze e feedback.
Si potrebbero ricondurre gli sforzi all’adozione del modello ServQual (Service Quality)
come cornice generale in cui implementare un sistema di valutazione dell’e-learning
(vedi fig. 3).

   [fig. 3]

    ServQual di Zeithaml, Berry e Parasuraman è uno tra i più noti “modelli dei gap”
per l’analisi della soddisfazione del cliente. La qualità che il cliente / utente finale
percepisce in un servizio viene considerata in funzione dell’entità dello scostamento
esistente tra il servizio atteso e il servizio ricevuto. Lo scostamento si può misurare
attraverso indagini quantitative. ServQual definisce cinque livelli di scostamenti
possibili tra l’offerta e la domanda: essi sono in teoria misurabili, fornendo un feedback
costante durante l’intero processo di ideazione, progettazione, erogazione di un servizio.
Furono gli stessi autori, tuttavia, a usare il modello con l’obiettivo di misurare soltanto
il quinto scostamento, in definitiva quello più facile da quantificare attraverso
questionari somministrati ai consumatori finali nonché il più adatto ad assicurare ai
committenti un feedback utile a prendere qualche decisione per azioni di marketing e di
comunicazione Lungo questa traiettoria sono state proposte altre teorie, come quella
delle otto dimensioni della qualità dei prodotti di marca di Garvin, il cui pregio e difetto
insieme è di valorizzare enormemente la qualità percepita rispetto ad altri attributi della
qualità nelle caratteristiche del prodotto più che nel modo di usufruirne.
    In una direzione parallela a questa, con maggiore enfasi sui processi, si è cercato
invece di elaborare qualche modello di misurazione della qualità che fosse in grado di
mettere in relazione il quinto scostamento con il primo, cioè la distanza tra le aspettative
degli utenti/consumatori finali e la percezione di queste aspettative da parte dei
progettisti e dei loro dirigenti. Appartengono a questa famiglia di modelli, ad esempio,
le applicazioni di “Balanced Scorecard”, divenute di moda anche nelle biblioteche
universitarie americane, e che cercano di gestire in modo integrato i dati provenienti da
diversi sotto-sistemi di rilevazione di dati gestionali (ad esempio: aspettative degli
utenti, allocazione delle risorse economiche, organizzazione dei processi di lavoro,
potenziale sviluppo di nuovi servizi).

                                             3
Mi pare curioso e interessante notare come questa impostazione sistemica della
valutazione della qualità nel settore dei servizi in generale si diffonda solo negli anni
Ottanta e venga implementata anche con applicazioni informatiche nel decennio
seguente. Eppure essa appartiene fin dal 1959 al settore della formazione grazie alla
teoria della gerarchia di Kirkpatrick il cui modello prevede, come si sa, quattro livelli di
rilevazioni (reazioni, apprendimenti, prestazioni, risultati).
    Basterebbe estendere il primo livello del modello di Kirkpatrick in modo sistematico
anche all’e-learning per poter disporre di uno strumento di misurazione per valutare le
reazioni dei partecipanti intese come insieme dei vissuti, delle percezioni e dei giudizi
suscitati nei partecipanti dall’esperienza formativa per quanto riguarda diversi aspetti
dell’esperienza stessa (ad esempio: contenuti, durata, metodi didattici, docenti, etc.),
nonché l’immagine della formazione in generale (Quaglino, 1987).
    Pare che negli USA il modello di Kirkpatrick fosse utilizzato in modo sistematico
dal 78% delle organizzazioni interpellate appartenenti a diversi settori industriali già nel
1968 (Carducci, 1995, p. 45).
    Invece, la teoria della gerarchia di Kirkpatrick o i modelli per la valutazione
economica della formazione di autori noti in letteratura non sono frequente oggetto di
discussione quando si tocca l’argomento della qualità dell’e-learning. Raramente si
citano dati provenienti dai questionari di valutazione delle reazioni dei destinatari.
Prevale invece la tensione per la determinazione di indicatori di natura sistemistica (il
tracciamento degli accessi, la log analysis) che assicurino ai coordinatori dei progetti e-
learning una messe di dati utili a sostenere qualche valutazione delle prestazioni, forse,
ma che nel complesso sono del tutto irrilevanti ai fini della valutazione delle reazioni o
degli apprendimenti.
    Abbiamo dovuto attendere il 2003 per poter ragionare, a livello europeo, sui dati
provenienti da una indagine (Cedefop, 2003) nella quale, finalmente, si sono raccolte le
opinioni di formatori, acquirenti e destinatari di prodotti e servizi di e-learning riguardo
alla qualità dell’offerta esistente, senza che questa venisse – tra l’altro – definita in
modo puntuale. Scopriamo così che su un campione di 433 rappresentanti (pubblico /
privato) del settore della formazione in Europa il 61% ha espresso giudizi negativi o
scettici sulla qualità dell’offerta e-L.
    Le ragioni della scarsa qualità percepita sono risultate prevalentemente le seguenti:
    • Livello di interattività dei prodotti scarso o scadente.
    • Contenuti non aggiornati.
    • Molti problemi tecnici a livello di accessibilità e usabilità delle interfacce.
    Altrettanto tardiva è stata a mio parere la presa si coscienza che dimensioni di
impresa, settori di attività, ruoli dei discenti e maggiore o minore familiarità con la
comunicazione mediata dal computer determinano diverse opinioni e convinzioni in
merito ai vantaggi ed alla qualità percepita dell’e-learning. Basta pensare alla
supponenza con cui per parecchi anni molti hanno escluso che l’e-learning potesse
essere di interesse per le PMI. La Fondazione G. Taliercio, ora Fondirigenti, aveva
realizzato qualche anno fa una ricerca sui bisogni di formazione manageriale nelle PMI
(Fondirigenti, 1999). Ne era emerso invece un panorama promettente: le potenzialità
dell’e-Learning sono infatti maggiori proprio dove costi, tempi e orari limitano, in
genere, gli investimenti nelle attività di formazione. Tra gli ostacoli alla adozione
dell’e-Learning nelle PMI erano stati individuati fattori quali:
    • la scarsa cultura informatica di base;

                                             4
•     la scarsa preparazione e conseguente ostilità di fondo degli stessi formatori,
         molto legati alle loro prassi consolidate tradizionali;
    • la scarsa propensione del nostro sistema produttivo all’innovazione;
    • i costi troppo elevati dei pacchetti elearning e la percezione di uno rapporto
         qualità / prezzo poco conveniente;
    • la scarsa consapevolezza da parte dei players del mercato dei bisogni degli utenti
         a cui si rivolgono;
    • l’eccessiva frammentazione dell’offerta tra fornitori le cui proposte sono
         difficilmente confrontabili tra loro.
    Nel 2003, la Fondirigenti ha proseguito questo percorso realizzando una
Vademecum - Guida all’e-learning nella quale vengono offerte indicazioni utili per la
selezione e valutazione dell’offerta e-Learning. Si presentano così i risultati di una
sperimentazione relativa alla fruizione di diversi corsi on line messi a disposizione da
cinque grandi fornitori, in parte solo on line e in parte blended. Analizzando i dati
raccolti, provenienti da 178 manager e imprenditori raggruppati in quattro classi di
quattro regioni differenti, risulta che solo 15 persone avessero già usufruito in passato di
corsi con questa modalità e che l’esperienza fosse nuova per tutti. La cosa più
entusiasmante per noi pionieri del virtuale è che la metodologia di FAD preferita si è
rivelata l’e-learning puro in tre regioni su quattro, seguito dalla modalità blended, dai
CD Rom / CBT (computer based training) e dall’utilizzo di prodotti audiovisivi
mentre la business tv si è confermata una modalità ancora di interesse solo per delle
sparutissime élite.
    I fattori ritenuti più importanti (ai quali su una scala da 1 a 3 è stato dato il punteggio
massimo) per l’utilizzo dell’e-Learning sono risultati:
    • la chiarezza nei contenuti
    • la facilità d’uso
    • i costi
    • la flessibilità nei tempi di fruizione
    • la presenza di servizi di assistenza
    • i contenuti innovativi, la sperimentazione in sé.
    Tutti i corsi erano tutorati e offrivano insieme ai materiali didattici anche “servizi di
community” e cioè:          forum, chat, help desk che hanno permesso ai partecipanti di
interagire con i tutor e tra di loro.
    Infine, a proposito delle motivazioni per cui i discenti non avessero mai fatto
ricorso all’e-Learning prima di allora, si è conquistata la prima posizione la “mancanza
di informazioni adeguate sull’offerta di corsi in e-learning” e la “difficoltà a trovare il
prodotto di interesse”: si tratta evidentemente di ostacoli che una minore
improvvisazione della offerta potrebbe contribuire a colmare. Ma forse le esigenze e
opportunità di formazione a distanza che esistono nelle PMI si possono comprendere
meglio se anche le stesse società e agenzie formative che offrono formazione
manageriale e specialistica migliorano i proprii sistemi di valutazione delle reazioni.

   Strategie: esiste una opzione di default della qualità dell’e-learning?

    Possiamo forse ipotizzare che esista una percezione “di default” della qualità di
prodotti e servizi on line?
    Ho proposto in diverse occasioni di prendere in esame questa idea, ispirata dalla
lettura di un libretto di Amartya Sen sulla pratica della democrazia fuori dall’Occidente,

                                              5
e mi pare abbia riscosso un certo consenso. In pratica si tratta di verificare se non esista
una specie di regola generale e naturale, che si considera giusta, a meno che non sia in
qualche modo espressamente negata, per valutare la qualità dell’e-learning,
analogamente all’opzione di “default” di un programma software, e a prescindere dal
fatto che l’espressione e-learning possa riferirsi a categorie di prodotti e servizi sempre
più variegati e anche in competizione l’uno con l’altro. A mio parere questa opzione
esiste.
    Come gruppo di lavoro AIF sull’e-Learning (AIFGEL), fin dal 2001, abbiamo
cercato di mettere in evidenza la contemporanea presenza nel settore dell’e-learning di
culture professionali e apporti tecnici differenti, dando luogo a una comunità di interessi
(la lista di discussione e-L@formatori.it) che ha fatto da incubatrice alla comunità di
scopo rappresentata dal gruppo di lavoro. Abbiamo sollecitato tecnologi, psicologi,
instructional designers, esperti di risorse umane, docenti, bibliotecari ottenendo molto
spesso, nel contesto dei diversi discorsi che si sono prodotti, conferma del fatto che l’e-
Learning non è una cosa sola.
    Vale la pena spendere un poco di tempo su una questione terminologica solo
apparentemente risolta. La definizione di e-Learning che si è ormai imposta a livello
internazionale, nei documenti dell’ASTD o di altri organismi professionali del settore
così come negli atti ufficiali dell’Unione Europea e della Commissione delle Comunità
Europee,      richiama infatti il significato letterale dell’espressione (apprendimento
elettronico) ed accoglie allo stesso tempo diverse generazioni di tecnologie, diverse
teorie pedagogiche, diversi tipi di formazione e autoformazione, applicazioni e
processi, prodotti e servizi.

    Se per e-Learning accettiamo di riferirci in senso lato all’uso delle tecnologie
multimediali e di Internet per migliorare la qualità dell’apprendimento, agevolando
l’accesso a risorse e servizi nonché gli scambi e la collaborazione a distanza,
adoperiamo una definizione che trova sì riscontro in molti documenti di fonte
autorevole ma che ha una ampiezza (e vaghezza) semantica controproducente, non
distante da quella dell’espressione “educazione e formazione”, inservibile per le nostre
finalità di progettisti, di formatori, di tutor che lavorano con particolari gruppi, ben
definiti, di utenti, per obiettivi mirati.
    Converrà forse concentrarsi, allora, sulle caratteristiche distintive dell’esperienza
ottimale di apprendimento elettronico che vorremmo offrire, nel nostro particolare
contesto organizzativo e in funzione di specifici obiettivi, cercando di lavorare sulle
variabili che riducono il rischio di abbandoni e aumentano invece le probabilità di un
buon livello di soddisfazione dei destinatari, anche a prescindere da diversi format e
diversi contenuti così come dalle “piattaforme” utilizzate.
    Potremmo così scoprire che una “opzione di default” della qualità percepita
accomuna quattro tipologie di e-learning:
    1. attività corsuali, a cui si partecipa dall’ufficio o da casa in orari liberi,
        integrando e alternando attività individuali e momenti di socializzazione
        all’interno di ambienti virtuali governati da un e-tutor o e-moderator;
    2. attività di autoformazione gestita da un tutor, mentore, coach o altro
        appellativo utile a denotare il ruolo di un intermediario “regista” o “guida” del
        percorso di sviluppo e di apprendimento proposto al singolo individuo;
    3. attività di autoformazione autonoma con l’ausilio di testi e audiovisivi,
        simulazioni al computer e in genere supporti multimediali off line che si possano

                                             6
consultare in un centro di documentazione o biblioteca (rinominati spesso negli
        ambienti anglosassoni “learning centre”), sul proprio posto di lavoro o a casa,
        contraddistinte da un inizio e da una fine predefiniti;
    4. attività più o meno autonome di ricezione, ricerca, elaborazione ed uso di
        fonti di informazione e addestramento operativo organizzate in un sistema di
        gestione della documentazione, a supporto della efficienza e della qualità di
        determinati processi di lavoro, senza un inizio e una fine predefiniti. Tipicamente
        questa è l’accezione di l’e-learning che troviamo riferita ai sistemi di
        autoistruzione usati in molti call center, o che serve a diversi ambiti di
        produzione industriale, nelle banche e in genere comparti dove esiste una
        esigenza di addestramento del personale all’uso di sistemi (informatici,
        automatici o meccanici) che è più conveniente - sia per l’impresa sia per
        l’individuo - demandare ai materiali di autoistruzione, alle simulazioni, alla
        documentazione che non ad attività di formazione.
     A mio parere e nella mia esperienza, confermata da un sistema di valutazione delle
reazioni con cui la mia società ha gestito dal 2000 in avanti la progettazione, produzione
e delivery di corsi e programmi on line con diversi format, l’opzione di default per l’e-
learning è l’interattività, intesa nella doppia accezione di interazione tra l’utente e la
interfaccia e di attività mutua e simultanea di più persone che collaborano per il
raggiungimento di determinati obiettivi, attraverso la partecipazione ad un ambiente
virtuale dove si sperimenta la telepresenza (con strumenti sincroni) o la presenza
virtuale (con strumenti asincroni).
    In questo senso l’area disciplinare dalla quale possiamo ricavare la maggiore spinta
propulsiva alla ricerca e alla sperimentazione continua di interfacce, sistemi,
tassonomie, architetture informative di qualità per l’e-learning è lo user centered design
(progettazione centrata sull'utente) o usability design, spesso chiamata in italiano anche
ingegneria dell'usabilità: si tratta di un approccio alla progettazione proveniente dalla
Human Computer Interaction (HCI), in italiano Interazione Uomo Macchina. La
HCI è una disciplina radicata nel settore informatico ormai da 40 anni e questo rende
diffidenti molti formatori a scoprirne i vantaggi e a considerarlo come un possibile
campo pertinente per la propria professione. Essa tende però oggi ad essere una
interdisciplina, con apporti provenienti dalla psicologia cognitiva, dalle scienze sociali e
da altri campi di ricerca come l’information science, coerentemente con il suo obiettivo
fondamentale:
      l'interazione uomo computer studia il design (progettazione), la valutazione
      e implementazione di sistemi computerizzati interattivi usati dagli esseri
      umani e i diversi fenomeni correlati.

    Sono numerosi a mio parere gli aspetti a favore della ricerca di soluzioni per la
qualità dell’e-learning che facciano riferimento proprio all'ingegneria dell'usabilità
come ambito disciplinare di riferimento: qui hanno posto non solo approcci tradizionali
tipici della progettazione del software didattico (instructional design) ma anche nuove
teorie e metodologie in costante e rapidissima evoluzione come l’information design e
l’information architecture nonché metodi di progettazione partecipativi e contestuali
(partecipatory design o contextual design) che potrebbero essere via via sempre più
importanti anche per la conduzione e moderazione di aule, teamwork e comunità
virtuali da parte dei tutor, facilitatori e animatori.

                                             7
Infine è standard in questo ambito (letteralmente, con l’ISO 9241, Ergonomic
requirements for office work with visual display terminals - Guidance on usability) il
concetto di soddisfazione dell'utente, inteso come livello di comfort e accettabilità
dell'interfaccia da parte dei suoi destinatari, misurabile con indagini quantitative e
qualitative, da cui non si può prescindere in sede di progettazione.
    Come il dialogo per la democrazia, e non importa se imperfetta, anche l’interattività
per l’e-learning potrebbe essere dunque quella “opzione di default” che andiamo
cercando, garantita da una metodologia progettuale sperimentata negli ultimi trent’anni
e fondata su cinque fasi:
  1.   Definizione degli utenti e dei loro compiti (si usa il termine task): chi
       userà una certa interfaccia, perchè e con quali aspettative, abilità o vincoli
       e e limitazioni?
  2.   coinvolgimento degli utenti nei diversi stadi di progettazione e
       realizzazione dell' interfaccia;
  3.   messa a punto di un prototipo;
  4.   definizione di guidelines per la produzione;
  5.   misurazioni scientifiche quantitative e qualitative dell'usabilità.

    A seconda delle dimensioni d’impresa e di attività possono variare anche le
piattaforme, gli strumenti e in parte le tecniche adottate, oltre alle funzioni, ai ruoli e al
grado di dettaglio di alcune attività: è evidente che non si possono fare le cose allo
stesso modo nel centro di produzione di una università virtuale con qualche decina di
dipendenti e migliaia di studenti e in una agenzia formativa che si presenta al mercato
come una boutique e con un target di qualche migliaio di allievi all’anno. Ma è
importante che la nostra “opzione di default” sia ampiamente “scalabile”, riconoscibile
e utilizzata dai formatori nella rete.

   Il processo AIF di Certificazione delle competenze: quattro più uno?

    AIF è stata all’avanguardia in Italia nel definire e promuovere degli standard di
qualità delle azioni formative. Questi standard sono stati a lungo visti in funzione del
programma di formazione formatori AIF (PFF) che è nato 25 anni fa ma oggi, dato
che sono moltissime le strutture che si occupano di formazione dei formatori sia
pubbliche che private, gli standard AIF assumono ovviamente un’altra valenza: essi
sono, cioè,     un punto di riferimento per le varie strutture di certificazione formale
(cosiddette “terze parti”).
    Definendo requisiti etici, deontologici e formali minimi a cui uniformarsi si potrebbe
innalzare l’immagine del formatore e favorire la sua crescita professionale e al
contempo fornire ai clienti, agli utenti, alla classe politica e in genere a tutti gli
stakeholder interessati alla qualità dell’e-learning interpretazioni e indicazioni utili per
valutare la qualità di prodotti e servizi.

    Il modello AIF della "qualità professionale nella formazione a norma AIF" riguarda
fino ad oggi quattro profili:
1. Progettista di formazione

                                              8
2. Responsabile di progetto
3. Formatore docente
4. Responsabile di centro o servizio.

    Già tre anni fa abbiamo ipotizzato di lavorare su un quinto profilo di specialista di
e-learning. Forse, data la complessità di funzioni e di ruoli coinvolti, non sarebbe
sbagliato chiamare questo quinto profilo “e-learning process manager” o “progettista e
gestore di formazione in rete”. Tuttavia, dal punto di vista della percezione della qualità
dell’e-learning da parte degli utenti finali e della spendibilità delle sue competenze in
contesti diversi, potrebbe essere importante ribadire che la storia infinita del dialogo tra
formatori e allievi continua, anche on line. Perciò parliamo, per ora, di “e-tutor” o di
“e-moderator”. Dove ci siamo, noi siamo una garanzia di qualità dell’e-learning.

* Amministratore Unico Panta Rei Srl

                                             9
Riferimenti bibliografici

    AIF, Professione formazione, 12.ed., Franco Angeli, 2000.
    Carducci, P., La valutazione degli investimenti in formazione, Scuola Superiore G. Reiss
Romoli, 1995.
    DELOS, 2003, DELOS Integrated Shortlist of Indicators, Consultation Document for the
3rd DELOS Seminar, Thessaloniki, Greece, 19 & 20 June 2003.
    Isfol - Politecnico di Torino, Le politiche di formazione nelle grandi imprese italiane,
dicembre 2002.
    Knowles, M., Quando l’adulto impara: pedagogia e andragogia, 8.ed., Franco Angeli,
2002.
    Longo, B., Come scegliere un corso on line: orientamento e criteri di valutazione
dell’offerta "a catalogo". Workshop "Conoscere l’e-Learning", Firenze Tecnologia, 8 aprile
2003.
    Loveless, A.M., The Interaction Between Primary Teachers’ Perceptions of ICT and Their
Pedagogy, in “Education and Information Technologies “, 8 (2003), n. 4, p. 313–326.
    Pensare l’istruzione di domani, Commissione CE, 2000.
    Quality and eLearning in Europe 2002. Summary Report, Cedefop, 2003.
    Rooney, J. J., Scott, W., E-Learning: A Primer, “Journal for Quality & Participation”, 26,
no. 4 (Winter 2003), p. 4-7.
    Sen, A. La democrazia degli altri, Milano, Mondadori, 2004.
    The European Quality Observatory (EQO), 2004, The EQO Model, Version 1.2 (Draft
Version).
    Zeithaml V.A., Parasuraman A., Berry L., Servire Qualità, McGraw Hill Libri Italia, 2000.

                                              10
1000
                                                   933
                                                            835
                  750

                                                                        575
                  500                510                                         508

                  250

                           14                      13       32          37       16
                    0
                        1999     2000         2001       2002        2003     2004

                                        internazionale    italiana

                               Fig. 1 L’e-learning bubble si sgonfia.
Numero di titoli sull’e-learning 1999-2004 (primi sei mesi) apparsi sulla stampa internazionale e
   sulla stampa italiana (Fonte: elaborazioni dell’autrice su dati Factiva/Dow Jones Reuters)

               Fig. 2 Classificazione degli approcci alla qualità dell’e-learning
                                         (Fonte: EQO)
Fig. 3 Il modello ServQual
(Fonte: Carù, A. Marketing e progettazione dei servizi, Utet, 1996, p. 159)
Puoi anche leggere