Interfaccia utente futura e sandbox di fine design
Pubblicato: 2022-03-11Chiunque lavori nel design e nella tecnologia, e probabilmente chiunque viva nel mondo moderno, avrà notato la rapidità con cui siamo passati dall'uso di termini come "World Wide Web" a "Internet delle cose".
In breve tempo, siamo passati dalla progettazione e sviluppo di pagine Web, punti sulla mappa dell'autostrada dell'informazione a cui si accede tramite browser, alle future interfacce utente: una vasta gamma di applicazioni interconnesse che forniscono contenuti ed esperienze in una vasta gamma di fattori di forma, risoluzioni e modelli di interazione.
La tecnologia e gli schermi che utilizziamo oggi stanno scomparendo nel nostro ambiente. L '"Internet delle cose" (IoT), insieme all'intelligenza artificiale (AI) che utilizza assistenti vocali, ci circonda già. Siamo agli albori di un mondo di "intelligenza ambientale" (AmI) in cui una moltitudine di dispositivi lavorano insieme per supportare le persone nello svolgimento delle loro attività quotidiane. Le singole interfacce utente basate su schermo stanno lentamente scomparendo e i progettisti devono fare i conti con un sistema frammentato di componenti di progettazione.
In che modo i designer progetteranno un mondo di intelligenza ambientale abilitato all'intelligenza artificiale in cui gli schermi sono scomparsi? Come cambierà il loro ruolo?
I ruoli dei designer di domani stanno cambiando
L'oggetto della pratica dei designer digitali era una volta posizionare una serie intricata di caselle, immagini, testo e pulsanti su uno schermo del browser relativamente affidabile (e alla fine su uno schermo di un'app mobile).
Questa è stata l'ampiezza dell'esperienza consegnata alle persone. Ma ora, i progettisti devono considerare che i prodotti esistono come entità separate all'interno di sistemi complessi di componenti che interagiscono, scambiano informazioni con e talvolta scompaiono anche dietro altre parti.
Come scrive Paul Adams di Intercom nel suo pezzo La fine delle app come le conosciamo, " In un mondo di molti schermi e dispositivi diversi, il contenuto deve essere suddiviso in unità atomiche in modo che possa funzionare indipendentemente dalle dimensioni dello schermo o dalla tecnologia piattaforma. "
E questo va oltre il semplice contenuto. Oggi, i progettisti devono considerare come ogni funzionalità o servizio offerto alle persone esiste all'interno e collabora con altri componenti di più sistemi e piattaforme.
In che modo le persone interagiranno con le informazioni domani?
All'inizio della rivoluzione mobile, i designer si sono concentrati sulla creazione di app che offrissero un'esperienza simile ai siti Web: ambienti ben progettati e controllati, con i quali le persone interagivano per consumare contenuti o svolgere un'attività, per poi uscire.
La maggior parte dell'interazione è avvenuta all'interno dei confini di uno schermo e i designer hanno avuto un buon controllo sulla consegna.
Tuttavia, la gamma di dispositivi mobili è esplosa da mini-computer basati su schermo a centri messaggi indossabili che avvolgono il polso e dispositivi che controllano a distanza il termostato di casa. Oggi, le persone ricevono frammenti di informazioni disgiunti da più fonti consegnati tramite notifiche e avvisi. Il paradigma è cambiato radicalmente.
Come saranno le future UI?
La proliferazione di tecnologie diverse e interconnesse ha anche significato che un singolo prodotto sarà sperimentato e interagito in modo diverso in contesti diversi.
Un avviso a un messaggio potrebbe apparire sullo smartwatch di una persona mentre è in viaggio verso una riunione.
Invece di dover trovare e quindi aprire l'app di messaggistica, l'utente ha la possibilità di rispondere all'interno della notifica e inviare una risposta rapida precomposta con un tocco e interagire con il messaggio in modo più approfondito in seguito, su un altro dispositivo.
Ciò significa che un'unità atomica, una micro-componente di interazione, deve essere fornita attraverso diverse interfacce utente (ed esperienze utente) adattate al contesto della comunicazione.
È probabile che l'utente non stia componendo una risposta e-mail in formato lungo mentre fa jogging. Probabilmente non apriranno un laptop al solo scopo di utilizzare la risposta con un tocco che era così utile sul loro dispositivo indossabile. Potrebbero anche non leggere mai la notifica sullo schermo, ma invece ascoltare il contenuto su un assistente virtuale ad attivazione vocale.
Paul Adams scrive: " In un mondo in cui le notifiche sono esperienze complete in sé e per sé, lo schermo delle icone delle app ha sempre meno senso. Le app come destinazioni hanno sempre meno senso. Perché aprire app separate per i tuoi voli e hotel con più destinazioni in una serie di app dei fornitori quando un'applicazione di viaggio come TripIt può presentare tutte queste informazioni contemporaneamente e persino consentirti di completare il check-in prima dell'imbarco? In alcuni casi, la necessità di schermate di app non esisterà in pochi anni, a parte il fatto che sepolto in profondità nell'interfaccia utente del dispositivo come navigazione secondaria. "
Le notifiche interattive a livello di sistema consentiranno alle persone di agire immediatamente, invece di dover utilizzare una notifica come gateway per aprire un'app in cui le persone vengono trascinate bruscamente da un contesto all'altro.
I mutati paradigmi dell'interazione trasformano le future UI
App come il popolare WeChat consentono alle persone di fare cose come trasferire denaro, chiamare un taxi e ricevere aggiornamenti sull'orario di arrivo, cercare un ristorante e prenotare un tavolo o trovare un hotel nelle vicinanze, il tutto attraverso un'interfaccia testuale che rimuove il necessità che un utente acceda a singole app per eseguire una serie di attività.
Nel futuro dell'interfaccia utente? Messaggi di testo della vecchia scuola, Kyle Vanhemert guarda alla proliferazione di piattaforme basate su testo che spesso sostituiscono la necessità di un'interfaccia utente grafica. I servizi forniti dalle app saranno sempre più accessibili al di fuori delle app stesse.
Progettare per il mondo dell'IoT significa rinunciare a un controllo ancora maggiore sull'interfaccia, creando prodotti e servizi a cui potrebbe non essere possibile accedere tramite uno schermo.
Quando lo schermo tattile ha rivoluzionato i dispositivi mobili, i designer hanno improvvisamente avuto un tesoro di nuove modalità di interazione da sfruttare, come scorrimenti, pizzica, tocchi, doppi tocchi, tocchi lunghi, tocca e trascina che sono andati ben oltre il punto -e-fare clic.
Ora le persone strisciano e pizzicano in aria o sventolano accessori etichettati davanti a dispositivi dotati di sensori dove i designer non possono guidarli espressamente con i segnali visivi standard: cosa deve fare ora il designer?

In un certo senso, questo significa progettare modelli di interazione prevedibili e riutilizzabili.
Come cambia il modo in cui i prodotti vengono implementati?
L'app mobile come unità di design, almeno nel modo in cui è stata vista finora, sta scomparendo.
L'applicazione standalone sta diventando la destinazione secondaria, o addirittura terziaria, in cui le persone possono ricevere i contenuti ei servizi offerti dai prodotti. In che modo i designer possono riallineare i loro approcci per soddisfare al meglio i bisogni delle persone?
Progettare meno per i pixel e più per frammenti di contenuto e momenti di interazione è il nuovo paradigma.
In un mondo in cui la quantità di informazioni disponibili e il numero di servizi concorrenti si sta espandendo in modo esponenziale, il modo migliore per avere un impatto è condividere e distribuire informazioni di qualità su una vasta gamma di piattaforme e contesti.
Ciò significa che idealmente, le persone riceveranno contenuti in modi che non possono essere controllati con precisione, spesso all'interno di più wrapper.
I designer si porranno una serie completamente nuova di domande.
- Come è possibile formattare il contenuto per adattarsi a una serie di finestre e persino a dispositivi con schermo minimo?
- C'è un modo per impacchettare una funzionalità chiave di servizi che possono esistere da qualche altra parte?
- Quali sono i modelli di interazione più appropriati e utili che possono essere offerti come azioni da intraprendere all'interno di una notifica?
Dato che le persone trascorrono meno tempo all'interno di destinazioni, come le app mobili, come possono i designer creare esperienze con cui è possibile interagire e completarle altrove?
Una notifica push per un evento del calendario imminente può fornire alle persone una serie di controlli standard per prenotare un volo, fornire suggerimenti di viaggio o ordinare fiori senza richiedere all'utente di aprire l'app stessa?
In che modo i designer possono creare funzionalità di app che funzionano con altre app per fornire servizi specifici alle persone ma sono anche abbastanza convincenti da superare la concorrenza?
Che aspetto ha il processo di progettazione di domani?
Poiché i momenti delle esperienze si spostano da un dispositivo all'altro in modo non lineare e il componente è la nuova unità di design, come viene definito il nuovo oggetto della pratica di un designer? Si tratterà sempre di più di progettare esperienze, non interfacce utente.
Il componente in questione sarà definito in modo diverso caso per caso, con implicazioni diverse per ogni prodotto. Diamo un'occhiata ad alcuni esempi che possono aiutare i progettisti a pensare ai loro prodotti come componenti di sistema, piuttosto che come destinazioni ben definite.
In quale contesto le persone riceveranno una notifica?
Iniziamo con le notifiche come un semplice schema.
Immagina un design per un'app di servizio di ride-hailing (simile a Lyft o Uber) che risuona su più dispositivi e notifica alle persone tramite notifiche push avanzate sulla posizione dell'auto noleggiata, sull'orario di arrivo stimato e sui ritardi. In questo scenario, l'utente ha un iPhone, un Apple Watch e degli auricolari collegati alle orecchie.
Innanzitutto, l'utente ordina l'auto tramite l'interazione vocale sul proprio Apple Watch. Alza il polso per riattivare l'orologio, chiede a Siri un'auto e riceve una conferma vocale che un'auto sta arrivando tramite gli auricolari.
È improbabile che le persone aprano l'app e monitorino continuamente lo schermo. Quindi le notifiche devono essere impacchettate per essere inviate al sistema operativo e all'utente tramite dispositivi collegati.
Pochi minuti dopo, controlla il suo iPhone per vedere la posizione dell'auto sulla mappa e quanto durerà l'attesa. Quando l'auto è a solo un minuto di distanza, l'app invia una notifica vocale ai suoi auricolari e una notifica a vibrazione al suo Apple Watch. Guarda il suo iPhone per confermare le informazioni sull'auto e sul conducente.
Questa app sembra più un componente all'interno del sistema operativo.
Se le persone non aprono la nostra app, cosa stiamo progettando?
I componenti non interagiscono solo con il sistema operativo, ma possono anche essere inseriti in altre app.
Ad esempio, in uno scenario in cui l'utente ha un itinerario di viaggio che potrebbe essere interessato da un ritardo, un'app di viaggio come TripIt potrebbe gestire notifiche push avanzate con cui l'utente può interagire senza dover aprire l'app stessa.
Se l'app di viaggio ha altre persone con cui è condiviso l'itinerario, la notifica potrebbe essere progettata per presentare all'utente un'opzione per inviare un ETA aggiornato agli amici che aspettano in aeroporto in caso di ritardo.
Il componente di notifica del dispositivo mobile viene unito al sistema di notifica dell'app di viaggio, le azioni dell'utente tornano indietro lungo la catena e viene apportata una modifica allo stato dell'app di viaggio senza che l'utente debba mai aprirla.
Se questo passaggio viene ulteriormente esteso per includere qualcosa come un assistente vocale (tramite una VUI), in che modo le notifiche e le azioni vengono impacchettate e consegnate laddove non è possibile prevedere un'interazione basata sullo schermo?
Le app stanno diventando organismi in grandi ecosistemi che si interfacciano con altri organismi e devono adattarsi di conseguenza.
I componenti UX del design sono stati ridefiniti nelle future UI
L'unità di progettazione dalle destinazioni di destinazione, come una pagina Web o un'applicazione sandbox, viene ridefinita in componenti di sistema che interagiscono tra loro e con le persone.
In molti casi, queste interazioni avvengono in modo quasi invisibile. Sebbene le app come concetto non vengano eliminate, non sono più l'evento o la destinazione principale.
I designer devono evolversi, ruotare e reindirizzare la loro attenzione per creare prodotti e servizi che si adattino per prosperare in più ecosistemi. Le future interfacce utente saranno distribuite su una serie di contesti e dispositivi imprevedibili e, nel mondo in espansione dell'intelligence ambientale, i designer hanno molto da contemplare.
• • •
Ulteriori letture sul blog di Toptal Design:
- La fine dei moduli Web
- Progettazione futura dell'interfaccia utente senza pulsanti
- Il mondo è la nostra interfaccia: l'evoluzione della progettazione dell'interfaccia utente
- Come progettare esperienze deliziose per l'Internet delle cose
- Il potere del tocco - L'evoluzione del design dei pulsanti (con infografica)