Meanings Interfacce e interazioni che alterano il senso delle cose - s Hacking

Pagina creata da Christian Albano
 
CONTINUA A LEGGERE
Meanings Interfacce e interazioni che alterano il senso delle cose - s Hacking
THINGK STUDIES!

                                                        Hacking
Stefano Marangoni, Ilaria Mariani, Umberto Tolino Eds

                                                        meanings
                                                        Interfacce e
                                                        interazioni
                                                        che alterano
                                                        il senso delle
                                                        cose.
THINGK STUDIES!

Direzione
Stefano Marangoni

Comitato editoriale
Stefano Marangoni, Ilaria Mariani, Umberto Tolino

Progetto grafico
Tommaso Livio

Il presente volume è pubblicato in Open Access, ed è liberamente scaricabile dal sito www.thingk.design
Hacking meanings. Interfacce e interazioni che alterano il senso delle cose
Stefano Marangoni, Ilaria Mariani, Umberto Tolino (Eds.)

ISBN Open Access: 9788894567915
Prima edizione: Feb 2020
Via Durando 38, 20158 Milano
www.thingk.design

Copyright © 2020 by Thingk s.r.l., Milano, Italia

                            Quest’opera, e ogni sua parte, è protetta dalla legge sul diritto d’autore ed è pubblicata in questa versione
                            digitale sotto la licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0
                            Internazionale (CC BY-NC-ND 4.0).

Sei libero di condividere, alle seguenti condizioni:
Attribuzione — Riconosci una menzione di attribuzione adeguata, fornisci un link alla licenza e indica se sono state effettuate delle
modifiche. Puoi fare ciò in qualsiasi maniera ragionevole possibile, ma non con modalità tali da suggerire che il licenziante avalli te o
il tuo utilizzo del materiale.
Non commerciale — Non puoi utilizzare il materiale per scopi commerciali.
Non opere derivate — Se remixi, trasformi il materiale o ti basi su di esso, non puoi distribuire il materiale così modificato.
Scaricando quest’opera, l’utente accetta tutte le condizioni del contratto di licenza come indicato e riportato sul sito:
https://creativecommons.org/licenses/by-nc-nd/4.0
Introduzione                                           5
         Stefano Marangoni

         Contesto di riferimento                                7
         Interfacce, oggetti smart ed esperienza utente
INDICE

         Stefano Marangoni, Ilaria Mariani, Umberto Tolino,
         Tommaso Livio

         Metodo progettuale                                    29
         Un percorso con l’utente al centro
         Umberto Tolino, Ilaria Mariani

         Interfacce utente                                     61
         Naturali, tangibili e vocali
         Stefano Marangoni, Ilaria Mariani, Umberto Tolino,
         Tommaso Livio

         Smart textile                                         87
         Materiali tradizionali e tecnologie digitali
         Ilaria Mariani, Stefano Marangoni, Umberto Tolino

         Hacking meanings                                     113
         Nuovi significati per oggetti e interazioni
         Ilaria Mariani, Umberto Tolino

         Drawing User Interfaces                              137
         Interazioni situate e variabili
         Stefano Marangoni, Ilaria Mariani, Umberto Tolino
Drawing
User
Interfaces
Interazioni
situate e
variabili

Stefano Marangoni Thingk, Milano
Ilaria Mariani Thingk & Dipartimento di Design, Politecnico di Milano
Umberto Tolino Thingk & Dipartimento di Design, Politecnico di Milano
Abstract. In un contesto in cui l’interazione è sempre più diffusa e dina-
mica, a favore di una dimensione context-sensitive e context-responsive,
abbiamo sviluppato interfacce che si disegnano sulla base delle esigenze
dell’utente. Le Drawing User Interfaces sfruttano i sensori per ricevere in-
formazioni dal mondo fisico (utenti e ambiente), le interpretano e reagisco-
no modificando la loro stessa estetica e funzione, trasformandosi in base
al bisogno e al contesto d’uso. Il saggio presenta la nostra ricerca su delle
interfacce dotate della capacità di modificare la funzionalità di un oggetto,
apparendo e scomparendo alla necessità. La sperimentazione, ancora in
corso, avviene all’interno del progetto H2020 DecoChrom (Decorative Appli-
cations for Self-Organized Molecular Electrochromic Systems).
Keywords. User Experience, Interfacce utente, Tecnologia integrata,
Physical Interaction, Smart Objects

Interfacce responsive e consapevoli del contesto

                                                                                Drawing User Interfaces
Il panorama tecnologico e informatico in cui ci troviamo
colloca il concetto di interazione tra oggetti e l’ambiente in
una dimensione di continua evoluzione, soprattutto cultura-
le. Consideriamo ad esempio come l’ubiquitous computing e
l’IoT potenzino un numero crescente di dispositivi diffusi in
vari contesti: questi oggetti, sistemi e reti di elementi smart
tra loro interconnessi aumentato di fatto la capacità dei no-
stri ambienti, rendendoli computazionali, interattivi, capaci
di dialogare con l’ambiente circostante e con noi (Latour,
1996). Assistiamo a una crescita di ecosistemi interconnessi
in cui oggetti intelligenti e sensoriali imparano dal contesto
in cui sono immersi, rendendo le nostre interazioni sempre
più diffuse, dinamiche, trasparenti, tangibili e talvolta estre-
mamente naturali.

Tali ecosistemi mirano a svilupparsi intorno all’utente senza
richiedere una performance ingombrante o una presenza
costante (come nel caso delle Interfacce a linea di comando,
CLI). In effetti, si adattano automaticamente alle circostan-
                                                                                138
ze. Il vantaggio significativo di un progressivo aumento della
                                  capacità di calcolo (ubiquitous computing) sta nel diminuire
                                  le informazioni che gli utenti devono elaborare e memoriz-
                                  zare durante le attività (Ashton, 2009), ricordando quello che
                                  Sweller definisce il carico cognitivo (Sweller, 1994, 2011).

                                  Lo sviluppo di sensori e attuatori intelligenti, integrati e col-
                                  legati in rete ha portato a vari tentativi di superamento del-
                                  le tradizionali interfacce – Graphical User Interfaces (GUI),
                                  come descritto nel terzo saggio, ha alimentato diversi filoni
                                  di ricerca, tra cui quelli delle Natural User Interfaces (NUI)
                                  e delle Tangible User Interfaces (TUI). Riconoscendo che le
                                  interazioni immediate e non mediate delle NUI sono interes-
Interazioni situate e variabili

                                  santi e promettenti, e che le TUI sono affascinanti per la pos-
                                  sibilità di incorporare e rendere tangibile il dato, di seguito
                                  presentiamo lo sviluppo di ulteriori interfacce che si basano
                                  sui concetti di responsività e adattabilità al contesto (situated-
                                  ness, context awareness e context responsiveness).
                                  In particolare, il ragionamento tiene in considerazione come
                                  il livello di embodiment raggiunto sia tale da concettualiz-
                                  zare la tecnologia stessa come materiale di progettazione
                                  operante in simbiosi con altre tecnologie e con materia-
                                  li fisici aumentati, in un ecosistema integrato che apre alla
                                  sperimentazione di nuove esperienze e pratiche di utilizzo.
                                  In particolare, i progressi della ricerca e il livello di sviluppo
                                  nell’ambito dell’IoT e IoE (Evans, 2011, 2012; Jenkins & Bo-
                                  gost, 2014; Kranz et al., 2009) stanno indagando e cercando
                                  interazioni in cui non siamo tenuti a fornire informazioni,
                                  ma sono reti di sensori intelligenti atte ad abilitare macchine
                                  computazionali alla comprensione, previsione, e interazione.
                                  Questo ponte tra il mondo fisico e quello digitale è diventato

139
possibile grazie all’introduzione di sensori, microcontrollori
e attuatori, ed si alimenta grazie al loro continuo migliora-
mento, insieme alla loro accessibilità economia e capacità di
integrazione in sistemi complessi.
Il ragionamento che segue si fonda sulla possibilità di pro-
gettare interfacce tangibili e sistemi che colleghino fisico e
virtuale, sfruttano la nostra naturale capacità di manipolare
e interagire con gli oggetti, dando forma all’interazione digi-
tale. Tali interfacce sono destinate ad avere un impatto sugli
oggetti su cui sono applicate, facendoli agire simultaneamen-
te come rappresentazione dell’informazione e come control-
lore. Lo scopo è quello di raggiungere una totale unità tra
interfaccia e interazione, permettendo all’utente di interagi-

                                                                     Drawing User Interfaces
re direttamente con le informazioni. Ciò considerando che
in generale la progettazione di oggetti ibridi ed intelligenti,
in cui la dimensione fisica e quella digitale si fondono, richie-
de una riflessione su come vengono percepiti e interpretati
dall’utente, così come su come ne influenzano le abitudini
d’uso. Questo ragionamento diventa ancora più complesso
considerando interfacce che hanno la capacità di adattare
o modificare la loro morfologia e le loro proprietà durante
le interazioni. Diventa così ancora più centrale la questione
sulla percezione e interpretazione di oggetti/interfacce che
cambiano la loro funzione e il loro comportamento a secon-
da delle circostanze, e quindi quale tipo di apprendimento
richiedono per essere usati correttamente.

Interfacce che si configurano da sole, quando serve
L’obiettivo è quello di cogliere e sfruttare i principi della tra-
sformazione digitale (Kuniavsky, 2010), perseguendo al con-
tempo l’ibridazione tecnologica attraverso la fusione della di-

                                                                     140
mensione analogica e dell’immaterialità digitale. Il contesto
                                  e la maturità tecnologica attuale, le direzioni delle sperimen-
                                  tazioni e ricerche, e le possibilità che derivano dall’includere
                                  una prospettiva materiale aprono significative opportunità
                                  nei campi dell’interaction design e della HCI. In questo con-
                                  testo, forti del sapere e delle prospettive multidisciplinari e
                                  transdisciplinari con cui guardiamo al ruolo che materiali,
                                  ambienti e corpo fisico dell’utente – come combinazione –
                                  assumono nelle interazioni che coinvolgono tecnologie inte-
                                  grate (Dourish & Bell, 2011; Hornecker & Buur, 2006; Klem-
                                  mer et al., 2006).
                                  Al centro del nostro ragionamento risiede il fatto che una
                                  prospettiva materiale possa fornire interazioni estetiche rile-
Interazioni situate e variabili

                                  vanti e significative. Da questa nozione si è sviluppata l’idea
                                  di ciò che definiamo come Drawing Interfaces (Mariani et al.,
                                  2019; Tolino et al., 2019), cioè interfacce utente che si dise-
                                  gnano, emergendo dalle superfici al momento del bisogno.
                                  Le Drawing User Interfaces (DUI) descrivono la nostra visio-
                                  ne di una possibile interazione con oggetti in cui l’informa-
                                  zione digitale si traduce in una manifestazione che permette
                                  un’interazione diretta, ma si differenzia dal concetto di atomi
                                  radicali di Ishii (2012) in cui l’informazione digitale assume
                                  forme fisiche che gli utenti possono manipolare e con cui
                                  possono interagire direttamente. Infatti, sebbene l’interazio-
                                  ne fisica venga mantenuta, l’informazione viene comunicata
                                  attraverso un’interfaccia visiva che emerge dalla superficie
                                  del materiale. Così facendo il materiale stesso conserva la
                                  sua natura analogica e acquisisce al bisogno una natura di-
                                  gitale. Parte degli studi sulle possibili tecnologie impiegabili
                                  (display elettrocromici) e delle possibili applicazioni (dagli
                                  smart object agli edifici intelligenti) sono condotte nell’am-

141
bito di DecoChrom (Decorative Applications for Self-Organi-
zed Molecular Electrochromic Systems – cordis.europa.eu/
project/id/760973), un progetto Horizon 2020 che si conclu-
derà nel 2021.

Drawing User Interfaces. Esperienze utenti situate ed
ecosistemiche
Le DUI sono interfacce pensate e progettate per ricevere
attraverso sensori informazioni dal mondo fisico (utenti e
ambiente) e agire di conseguenza, modificando la propria
estetica e funzione. L’idea stessa alla loro base si articola e
rafforza il concetto di embedment. L’interfaccia appare lette-
ralmente sugli oggetti, piuttosto che essere l’oggetto stesso

                                                                   Drawing User Interfaces
o parte di esso, come nel caso delle TUI. Le DUI si differenzia-
no anche dalle interfacce grafiche in quanto non impiegano
schermi tradizionali per visualizzare le informazioni, bensì
si integrano nel materiale con cui sono composti i disposi-
tivi. Di conseguenza il feedback non è dato da uno schermo
ma è la pelle stessa degli oggetti che muta a seconda delle
informazioni che ricevono, riflettendo la funzione attivabi-
le. L’interfaccia è sostanzialmente immersa nel materiale,
e sfruttando le proprietà chimiche o fisiche del materiale in
cui si posiziona, emerge. Questa soluzione supera un limite
importante criticato alle TUI e al concetto di bit tangibili: se
un vantaggio delle TUI è che permettono un’associazione im-
mediata tra rappresentazione fisica e informazione digitale,
il limite diventa evidente nel rappresentare il cambiamento.
Le TUI non hanno infatti la capacità di adattare o modificare
(facilmente) la loro morfologia o le loro proprietà durante le
interazioni per mostrare ad esempio stream di informazioni.
Seguendo il claim della startup “oggetti di uso quotidiano

                                                                   142
con superpoteri”, la progettazione delle DUI come interfac-
                                  ce che si disegnano da sole, al bisogno, comporta un’altera-
                                  zione e una modifica della percezione degli oggetti da parte
                                  degli utenti, che si basa sul concetto haking dei significati de-
                                  gli oggetti (Tolino & Mariani, 2019). Le DUI tuttavia non solo
                                  ne ridisegnano il significato, ma portano con sé un cambia-
                                  mento di funzioni. Ciò rende il linguaggio degli oggetti stessi
                                  tutt’altro che scontato.
                                  Il concetto stesso di DUI si fonda sull’aggiungere tecnologia
                                  invisibile a oggetti con un’estetica essenziale, che vengono
                                  aumentati con proprietà inaspettate, con impatti in termine
                                  di percezione da parte degli utenti (Heskett, 2002; Krippen-
                                  dorff, 1989; Verganti, 2009).
Interazioni situate e variabili

                                  Dal punto di vista dello stato dell’arte, il panorama è com-
                                  plesso e articolato, caratterizzato da artefatti interattivi che
                                  diventano sistemi estesi capaci di dialogare con applicazioni
                                  e altri oggetti, beneficiando di una componente tecnologi-
                                  ca integrata e in rete (IoT). Un caso studio di ispirazione é
                                  Environment di Lapka1. Environment appare come una serie
                                  di blocchi, che sono in realtà sensori ambientali in grado
                                  di misurare una varietà di dati e comunicarli ad altri device,
                                  dove via app le complesse informazioni raccolte vengono
                                  tradotte in visualizzazioni user-friendly. Partendo da questi
                                  presupposti, abbiamo deciso di concettualizzare un modello
                                  di interfacce variabili e situate che reagiscono non solo alle
                                  interazioni innescate dagli utenti, ma anche alla relazione
                                  con l’ambiente circostante: delle interfacce responsive ri-
                                  spetto al contesto d’uso. Riconoscendo i limiti e i vincoli che
                                  caratterizzano TUI (Fernaeus et al., 2008; Hornecker & Buur,

                                  1
                                      https://mylapka.com/pem/
143
2006) e NUI (Hansen & Dalsgaard, 2015; Norman, 2010), ed
essendo consapevoli delle problematiche che derivano dal
cosiddetto dilemma dell’invisibilità (Kranz et al., 2009), abbia-
mo concepito una tipologia di interfaccia dinamica in grado
di esprimersi e comunicare all’utente ciò che la sua forma
nasconde: le sue affordance.
Nel tentativo di integrare funzionalità intelligenti negli ogget-
ti di uso quotidiano senza cadere nel suddetto dilemma, ci si
trova sovente di fronte alla scelta tra minimizzare le possi-
bilità di non cogliere il compito principale di una interfaccia,
e aggiungere valore includendo interazioni esplicite. Davan-
ti a questa scelta la tendenza è a nascondere l’intelligenza
dell’oggetto, con il rischio di rendere poco o meno evidenti le

                                                                    Drawing User Interfaces
sue funzioni. Tuttavia, un aumento, non adeguatamente co-
municato, delle funzionalità si traduce in una dicotomia tra
estetica e funzioni. Diventa così fondamentale considerare
come le capacità introdotte negli oggetti intelligenti possano
essere trasmesse all’utente, così che gli oggetti stessi possa-
no essere utilizzarli in modo appropriato.

Parallelamente, abbiamo considerato un secondo dilemma,
quello del controllo (A. Yang & Rebaudengo, 2014): una que-
stione cruciale quando si tratta di automazione smart. L’at-
tenzione sta nel progettare oggetti che agiscano e reagiscano
autonomamente a determinati input, mantenendo invisibile
all’utente la complessità che sottende all’azione. Tuttavia ciò
deve avvenire in una condizione bilanciata per cui il fruitore
non viene privato della sua percezione di avere controllo su
quanto sta accadendo. A questo proposito, significativo è lo
studio di caso di una delle prime versioni del termostato Nest
Learning Thermostat. Gli utenti che hanno utilizzato il termo-

                                                                    144
stato, quando intervistati, hanno dichiarato di provare una
                                  sensazione di disagio dovuta al non riuscire a comprendere
                                  appieno il processo di apprendimento dell’artefatto, che ac-
                                  quisisce informazioni sulle loro abitudini per auto-regolare
                                  la temperatura nel corso delle giornate. La conseguenza è
                                  che gli utenti si sono sentiti incapaci di provare completa fi-
                                  ducia verso l’autoimpostazione di determinate funzionalità
                                  del dispositivo domotico (R. Yang & Newman, 2013). Il dilem-
                                  ma del controllo richiede di prestare attenzione all’utente,
                                  considerando il suo bisogno di essere messo a conoscenza
                                  di quanto sta accadendo. Entrambi i dilemmi non possono
                                  essere trascurati nel definire un nuovo concetto di interfac-
                                  cia come nel caso delle DUI.
Interazioni situate e variabili

                                  Focalizzandosi sulle funzionalità degli oggetti, ci si pone
                                  spesso il problema della quantità di informazioni che un’in-
                                  terfaccia debba restituire per poter assolvere a ogni attività
                                  prevista. Il vantaggio di poter sfruttare diversi insiemi di co-
                                  mandi variabili, consente di isolare e “situare”, o contestua-
                                  lizzare, le funzioni principali di un dispositivo proprio in base
                                  all’effettivo caso d’uso.
                                  Adottare DUI permette quindi di progettare esperienze d’u-
                                  so situate, variabili nel tempo e nello spazio, strettamente
                                  connesse al contesto in cui si trovano, reagendo con un cam-
                                  biamento dell’interfaccia in base ad esempio al proprio posi-
                                  zionamento, inclinazione, collocazione dell’utente.
                                  Le DUI possono essere pensate come dei layer sovrapposti,
                                  che si attivano al bisogno. Ciascun layer è un’interfaccia de-
                                  stinata a gestire specifiche funzionalità. Dal punto di vista
                                  estetico, proprio questa necessità di adattabilità ci ha porta-
                                  to a concepire le DUI come interfacce da integrare in archeti-

145
pi morfologici. L’oggetto resta inalterato nella sua forma, ma
cambia la propria pelle comunicativa, offrendo funzioni diver-
se a seconda dall’interpretazione delle variabili circostanti,
che innescano un’esperienza di utilizzo fluida e a misura
d’uomo. Si pensi ad un cilindro che invita a un’interazione,
come può essere la regolazione di un valore (temperatura,
volume, etc.) come in fig. 1. Ogni layer dell’oggetto diventa
depositario di informazioni dinamiche che verranno comu-
nicate in funzione del suo utilizzo da parte dell’utente. Un
layer consentirà quindi la lettura e la variazione di tempera-
tura, uno potrà visualizzare una scala lineare per il volume o
l’intensità luminosa e un terzo permetterà l’avanzamento di
brani musicali o filmati, e così dicendo.

                                                                  Drawing User Interfaces
Questo scenario progettuale aumenta le variabili in gioco, in-
nestando una dimensione auto-nomatica (Botta et al., 2006)
che aumenta la natura degli elementi in gioco, attribuendo
all’interfaccia un valore prestazionale. Un valore che genera
capacità di azione e reazione nell’istante in cui viene manipo-
lata durante un’interazione (Tolino, 2018). Conseguenza di
questa caratteristica è il bisogno di progettare considerando
la collocazione nello spazio, e quindi anche il ritmo visivo,
non più solo sotto forma di identità posizionali e statiche
(Ceriani, 2003) ma come elementi variabili che sono fluidi e
dinamici nella loro composizione.

Fig 1. Drawing User Interfaces: Concept
                                                                  146
147
Interazioni situate e variabili
Movimento, rotazione e dialogo: i casi d’uso, a oggi
Progettando le DUI abbiamo identificato tre principali casi
d’uso:

    1. Movimento: Spostamento, ricollocazione all’interno
         di un ambiente.
    2. Reazione: Risposta all’ambiente che muta (presenza
         di persone, variazioni di parametri definiti, etc).
    3. Dialogo: Variazione funzionale in base alla relazione
         con altri oggetti connessi nello spazio circostante.

Presentiamo di seguito dei casi studio esistenti introducendo
le DUI come interfaccia. Così facendo diventano pretesti per

                                                                     Drawing User Interfaces
spiegare i possibili casi d’uso e il funzionamento delle DUI.

Movimento. Nel primo caso d’uso, l’interfaccia risponde al
cambiamento di posizione e di orientamento, rivelandosi
e visualizzando diverse funzioni. Surface Dial di Microsoft è
un controller che può interagire con diversi programmi ed
elementi digitali, servendo funzioni specifiche a seconda
di come viene attivato e manipolato. Tuttavia, la funzione
dell’interfaccia è delegata a uno schermo esterno, dove ven-
gono visualizzate le informazioni, mentre il prodotto stesso
non fornisce di per sé alcun feedback attraverso la sua super-
ficie. In questo caso, il potenziale utilizzo di DUI risiede nella
possibilità di sovrapporre oggetto e interfaccia, in modo che
le funzioni siano comunicate direttamente sul prodotto.

Reazione. Nel secondo caso d’uso, l’interfaccia reagisce
alla vicinanza o all’interazione con elementi esterni, quali
lo spostamento dell’utente o variazioni ambientali. Il già ci-

                                                                     148
tato Environment di Lapka consiste in una serie di quattro
                                  sensori ambientali incorporati in altrettanti dispositivi dalle
                                  dimensioni contenute, in grado di misurare diversi parame-
                                  tri quali i campi elettromagnetici, l’umidità, le radiazioni e al-
                                  cune sostanze generate dall’utente. Environment svolge poi
                                  una funzione di traduzione, restituendo i dati complessi rac-
                                  colti dalle misurazioni ambientali in una rappresentazione
                                  user-friendly visualizzata sullo smartphone o un altro device
                                  dove è stata precedentemente installata l’app nativa. Nuova-
                                  mente, la funzione di visualizzazione dei dati è affidata a un
                                  elemento esterno: il display di un device, dove la traduzio-
                                  ne dell’informazione viene restituita in forma di infografica.
                                  L’introduzione delle DUI all’interno di un simile sistema per-
Interazioni situate e variabili

                                  metterebbe di mostrare agli utenti un feedback immediato
                                  direttamente sul prodotto, semplificando le informazioni
                                  senza tuttavia visualizzare dati completi e dinamici. Come
                                  descritto di seguito, anche per le DUI, la tecnologia scelta per
                                  la sperimentazione permette di pensare solo a informazioni
                                  statiche. La direzione scelta è quella infatti del basso impat-
                                  to energetico, anche a scapito di un’informazione animata
                                  all’interno dei layer.

                                  Dialogo. Nell’ultimo caso d’uso l’interfaccia si riferisce agli
                                  oggetti intelligenti circostanti. Il telecomando Trådfri di Ikea
                                  si collega a diverse lampade che funzionano per prossimità,
                                  gestendo l’accensione e lo spegnimento, il dimming e il co-
                                  lore della temperatura. Il telecomando riconosce e regola le
                                  lampadine entro un raggio di distanza di massimo 10 m, tut-
                                  tavia non restituisce informazioni o feedback circa il device
                                  cui risulta connesso. In questo caso, l’applicazione delle DUI
                                  permetterebbe di riconoscere il dispositivo (lampadina) a cui

149
il telecomando è collegato, rendendo più chiare e immediate
le funzioni disponibili. Inoltre, nell’ipotesi che nell’ambiente
circostante siano presenti più oggetti intelligenti e che un
unico controllore sia in grado di interagire con essi, potrebbe
attivare un dialogo con quello più vicino, per poi cambiare la
sua interfaccia a seconda della funzione da eseguire.

Tecnologia disponibile e sperimentazione con materiale
elettrocromico
Questo tipo di sperimentazione può essere attuata seguen-
do diverse derive tecnologiche. La continua smaterializzazio-
ne delle interfacce fisiche degli oggetti ha spesso delegato
a schermi digitali la dimensione operativa delle funzioni del

                                                                     Drawing User Interfaces
prodotto stesso. Display incorporati negli oggetti o trasferiti
su altri dispositivi (mobile e tablet) sottolineano la dimensio-
ne e l’apparenza tecnologica dei prodotti smart.

Allo stato tecnologico attuale iniziano ad affacciarsi smart
material atti alla riconfigurazione della propria forma, ma si è
ancora lontani dalla creazione di un materiale talmente dut-
tile da mostrare un flusso continuo di dati digitali, attraverso
un cambiamento di proprietà fisiche intrinseche. Il campo
di applicazione delle Drawing User Interfaces è a cavallo tra
l’analogico (estetica e materiali) e il digitale (funzioni e tran-
sizioni): di fatto, se si opta per l’assenza di un display LED, si
possono ottenere dei cambi di stato delle proprietà chimiche
del materiale (elettrocromico) oppure fisiche (e-ink). Entram-
be le tecnologie si possono integrare all’interno di superfici
realizzate con materiali naturali – quali ad esempio legno,
marmo, metallo – senza contaminarne l’aspetto e le caratte-
ristiche tattili.

                                                                     150
Orientarsi verso l’e-ink come nel caso del progetto Yotaphone
                                  (Yota, 2013) permette un’ottima risoluzione grafica ma ha il
                                  limite della gamma cromatica limitata al bianco e nero. Gli
                                  schermi elettrocromici hanno il grande vantaggio di poter
                                  essere realizzati con tecnica serigrafica monocolore su su-
                                  perfici trasparenti, così da poter vivere[72] al di sopra del
                                  materiale con cui è realizzato l’oggetto. Un ulteriore benefi-
                                  cio legato alla scelta di questa tecnologia, è che l’elettrocro-
                                  mico assorbe energia solo nel momento della transizione da
                                  uno stato di trasparenza a quello di opacità, e invece non ha
                                  alcun consumo legato al mantenimento dello stato una volta
                                  raggiunto. Quest’ultima soluzione è diventata l’oggetto della
                                  nostra sperimentazione all’interno progetto DecoChrom, che
Interazioni situate e variabili

                                  ne ha visto l’ideazione e ne vedrà l’attuazione, in forma pro-
                                  totipale, durante le prossime attività sperimentali.

                                  Nascoste, variabili e aggiornabili
                                  Le DUI sfruttano il modo in cui i microprocessori e i sen-
                                  sori possono fornire a un ecosistema di oggetti intelligenti
                                  la consapevolezza di ciò che li circonda, traendo vantaggio
                                  dalla loro capacità di dialogare con gli utenti, gli altri og-
                                  getti e l’ambiente. Con questo tipo di approccio al design
                                  delle interfacce, si esprime un modello di sperimentazione
                                  strettamente connesso al mercato dell’IoT dove l’indagine
                                  sull’utente è al centro del progetto. L’innovazione quindi è
                                  orientata alla relazione tra funzione ed estetica correlata al
                                  contesto d’uso, quindi un’innovazione tangibile, applicabile
                                  a scenari contemporanei o futuri. Uno dei risultati ottenuti
                                  è quello di preservare l’estetica di prodotti che storicamente
                                  non utilizzavano interfacce, attraverso l’inserimento di uno
                                  livello interattivo in grado di manifestarsi e scomparire all’oc-

151
correnza. Queste interfacce hanno il potenziale di scompari-
re, quindi possono essere utilizzate su oggetti e prodotti che
mantengono la loro estetica complessiva. In questo modo
l’interfaccia non influenza o contamina più l’estetica di un og-
getto. Detto ciò, gli sviluppi futuri riguardano l’indagine sugli
utenti per capire come tali interfacce abbiano implicazioni in
termini di esperienza; in parallelo, possibili progressi della
tecnologia elettrocromatica, così come l’applicazione di altre
tecnologie, potrebbero avere un impatto positivo sul proget-
to. Ulteriori possibilità da esplorare in un prossimo futuro
riguardano ad esempio l’integrazione di materiali smart re-
attivi, dinamici e capaci di plasmare, trasformare e informare
con il loro stesso cambio di stato (Wilson, 1999).

                                                                     Drawing User Interfaces
La questione principale oggetto delle nostre prossime inda-
gini ed esplorazioni riguarda il modo in cui gli utenti reagi-
ranno di fronte a interfacce che si manifestano quando ne-
cessario, ovvero cambiando in base al loro posizionamento
nello spazio, al dialogo con altri oggetti dell’ecosistema digi-
tale o all’interazione con l’utente.
Nel fare ciò, è fondamentale comprendere il ruolo dell’este-
tica negli ecosistemi dinamici digitale-fisici: affrontare la pro-
gettazione di interfacce per ecosistemi intelligenti distribuiti,
ipercollegati e complessi richiede di considerare le implica-
zioni derivanti dall’avere più significati che coesistono nel-
lo stesso oggetto; significati che non vengono visualizzati in
modo persistente, ma che emergono dalla superficie quan-
do necessario. Di conseguenza, come più volte ribadito, è
fondamentale indagare il modo in cui gli utenti interprete-
ranno e interagiranno con gli oggetti che adottano interfacce
che sono contemporaneamente:

                                                                     152
nascoste, poiché non sempre vengono visualizzate
                                         variabili, perché si riconfigurano in base all’ambiente
                                         aggiornabili, vale a dire che sono progettate per dura-
                                         re più a lungo della durata dell’oggetto stesso.

                                  In generale, consideriamo che il ragionamento alla base del-
                                  le DUI sia significativo per varie discipline, dal design all’HCI,
                                  poiché esplora come le interfacce possono sfruttare le tec-
                                  nologie intelligenti per modificare se stesse contaminando
                                  digitale e fisico.

                                  Ringraziamenti. DecoChrom (Decorative Applications for Self-Organized
                                  Molecular Electrochromic Systems) è un progetto Horizon 2020. Grant Agre-
                                  ement numero: 760973. https://cordis.europa.eu/project/rcn/212846/en
Interazioni situate e variabili

153
Riferimenti bibliografici

Ashton, K. (2009). That “Internet of Things” Thing. RFID Journal,
        Journal Article. https://www.rfidjournal.com/articles/
        view?4986

Ballmer, S. (2010). CES 2010: A Transforming Trend—The Natural
         User Interface. www.huffingtonpost.com/steve-ballmer/
         ces-2010-a- transforming-t_b_416598.html

Botta, M., Smith, G. C., & Anceschi, G. (2006). Design dell’informa-
        zione: Tassonomie per la progettazione di sistemi grafici
        auto-nomatici. Valentina Trentini.

Ceriani, G. (2003). Il senso del ritmo. Pregnanza e regolazione di un
         dispositivo fondamentale (Vol. 18). Meltemi Editore srl.

                                                                        Drawing User Interfaces
Dourish, P., & Bell, G. (2011). Divining a digital future: Mess and
        mythology in ubiquitous computing. The MIT Press.
Evans, D. (2011). The internet of things: How the next evolution of
        the internet is changing everything. Cisco Internet Business
        Solutions Group (IBSG), 1–11.

Evans, D. (2012). The internet of everything: How more relevant
        and valuable connections will change the world. Cisco
        Internet Business Solutions Group (IBSG), 2012, 1–9.

Fernaeus, Y., Tholander, J., & Jonsson, M. (2008). Towards a new
       set of ideals: Consequences of the practice turn in tangi-
       ble interaction. TEI’08 Proceedings, 223–230.

Hansen, L. K., & Dalsgaard, P. (2015). Note to self: Stop calling in-
        terfaces” natural”. Proceedings of The Fifth Decennial Aarhus
        Conference on Critical Alternatives, 65–68.

Heskett, J. (2002). Toothpicks and logos: Design in everyday life.
         Oxford University Press.

                                                                        154
Hornecker, E., & Buur, J. (2006). Getting a grip on tangible in-
                                         teraction: A framework on physical space and social
                                         interaction. Proceedings of the SIGCHI Conference on Human
                                         Factors in Computing Systems, 437–446.

                                  Ishii, H., Lakatos, D., Bonanni, L., & Labrune, J.-B. (2012). Radical
                                             atoms: Beyond tangible bits, toward transformable mate-
                                             rials. Interactions, 19(1), 38–51.

                                  Jacob, R. J., Girouard, A., Hirshfield, L. M., Horn, M. S., Shaer, O.,
                                           Solovey, E. T., & Zigelbaum, J. (2008). Reality-based inte-
                                           raction: A framework for post-WIMP interfaces. Proceedin-
                                           gs of the SIGCHI Conference on Human Factors in Computing
                                           Systems, 201–210.

                                  Jenkins, T., & Bogost, I. (2014). Designing for the internet of things:
                                           Prototyping material interactions. CHI’14 Extended Ab-
Interazioni situate e variabili

                                           stracts on Human Factors in Computing Systems, 731–740.
                                           https://doi.org/10.1145/2559206.2578879

                                  Klemmer, S. R., Hartmann, B., & Takayama, L. (2006). How bodies
                                        matter: Five themes for interaction design. Proceedings
                                        of the 6th Conference on Designing Interactive Systems,
                                        140–149.

                                  Kranz, M., Holleis, P., & Schmidt, A. (2009). Embedded interaction:
                                          Interacting with the internet of things. IEEE Internet Com-
                                          puting, 2, 46–53. https://doi.org/10.1109/MIC.2009.141

                                  Krippendorff, K. (1989). On the Essential Contexts of Artifacts or on
                                          the Proposition That “Design Is Making Sense (of Things).”
                                          Design Issues, 5(2), 9–39. https://doi.org/10.2307/1511512

                                  Krishna, G. (2015). The best interface is no interface: The simple path
                                           to brilliant technology. New Riders.

                                  Kuniavsky, M. (2010). Smart Things, Ubiquitous Computing User Expe-
                                          rience Design. Elsevier.

155
Latour, B. (1996). On interobjectivity. Mind, Culture, and Activity,
         3(4), 228–245.

Mariani, I., Livio, T., & Tolino, U. (2019). Drawing Interfaces. When
         interaction becomes situated and variable. DeSForM 2019
         Proceedings.
Norman, D. A. (2010). Natural User Interfaces are not Na-
         tural. Interactions, 17(3), 6–10. http://doi.acm.
         org/10.1145/1744161.1744163

Shaer, O., Hornecker, E., & others. (2010). Tangible user interfa-
        ces: Past, present, and future directions. Foundations and
        Trends® in Human–Computer Interaction, 3(1–2), 4–137.

Sweller, J. (1994). Cognitive load theory, learning difficulty, and in-
         structional design. Learning and Instruction, 4(4), 295–312.

Sweller, J. (2011). Cognitive load theory. In Psychology of learning

                                                                           Drawing User Interfaces
         and motivation (Vol. 55, pp. 37–76). Elsevier.

Tolino, U. (2018). Figure dinamiche e di interazione. In V. Bucchetti
         (Ed.), Progetto e culture visive. Elementi per il design della
         comunicazione. FrancoAngeli.

Tolino, U., & Mariani, I. (2019). Hacking Meanings. Innovation as
         Everyday Invention. DIID Disegno Industriale, 65(18), 78–85.

Tolino, U., Mariani, I., Livio, T., & Marangoni, S. (2019). Variable and
         situated user interfaces: Assumptions, potentials and de-
         sign issues. ACM International Conference Proceeding Series.

Verganti, R. (2009). Design-Driven Innovation—Changing the Rules
        of Competition by Radically Innovating What Things Mean.
        Harvard Business Press.

Wigdor, D., & Wixon, D. (2011). Brave NUI world: Designing natural
        user interfaces for touch and gesture. Elsevier.

Wilson, F. R. (1999). The hand: How its use shapes the brain, langua-
         ge, and human culture. Vintage.

                                                                           156
Yang, A., & Rebaudengo, S. (2014). Yang, R., Rabaudengo S.: When
                                           Objects Talk Back. Medium. https://medium.com/@frogde-
                                           sign/when-objects-talk-back-8eff3b252482

                                  Yang, R., & Newman, M. W. (2013). Learning from a Learning Ther-
                                           mostat: Lessons for Intelligent Systems for the Home.
                                           Proceedings of the 2013 ACM International Joint Conference
                                           on Pervasive and Ubiquitous Computing, 93–102. https://
                                           doi.org/10.1145/2493432.2493489
Interazioni situate e variabili

157
Copyright ©2020 by THINGK S.r.l., Milano, Italy
Puoi anche leggere