El mundo es nuestra interfaz: la evolución del diseño de la interfaz de usuario
Publicado: 2022-03-11Hoy en día las computadoras son omnipresentes. No puedes escapar de ellos. Vivimos en una era emocionante de diseño e interfaces de usuario en evolución; una nueva era tecnológica en la que nuestra ropa, accesorios, hogares, automóviles y calles se han convertido en una interfaz de usuario masiva, apodada por algunos como el "mundo de la inteligencia ambiental".
La evolución del diseño de la interfaz de usuario se puede dividir en cuatro períodos: la era de las herramientas, la era de la máquina, la era del software y la era del yo. Con este rápido crecimiento, la exploración de la interacción humana con los objetos, el medio ambiente y la tecnología se ha vuelto esencial.
La era de las herramientas
Usando herramientas primitivas, los primeros humanos comenzaron a comunicarse dibujando representaciones de animales y la naturaleza en superficies de piedra. Los jeroglíficos, que eran altamente simbólicos, fueron uno de los primeros métodos utilizados para comunicarse. Este simbolismo luego se convertiría en arte, escritura, documentación y narración de historias.
Con el tiempo, las herramientas se volvieron más sofisticadas, lo que resultó en que algunas (por ejemplo, bolígrafos) todavía se usan ampliamente en la actualidad. Hemos cerrado el círculo y una vez más estamos utilizando símbolos e iconografía simples, como emojis, para señalar emociones y comunicar sutilezas que van más allá de las palabras.
La era de las máquinas
La revolución industrial enfatizó la productividad. Durante “la era de la máquina”, construimos objetos a escala para ayudarnos a hacer la vida más fácil. Era una época en la que el propio hardware seguía siendo la principal "interfaz de usuario".
Un ejemplo de esto es la invención de la máquina de escribir en 1868 por Christopher Latham Sholes. Comenzamos a tocar teclas físicas para crear palabras, todavía usando nuestras manos, pero con la ayuda de la máquina de escribir como reemplazo del bolígrafo. Ahorró tiempo y ayudó a crear un formato coherente y práctico que se podía adoptar rápidamente.
Las máquinas se producían en masa y el poder se trasladaba a ellas. El hardware como interfaz había llegado; el inconveniente, sin embargo, era que era necesario aprender a escribir antes de poder utilizarlo.
La era del software
El software necesitaba una "interfaz de usuario" y, al buscar un modelo que fuera fácil de adoptar para los usuarios, los diseñadores de UI se inspiraron en el comportamiento de las personas y en diseños de hardware anteriores.
La gente ya tenía un modelo mental del teclado de una máquina de escribir; ya sabían escribir a máquina, por lo que la progresión natural fue comenzar a interactuar con el texto en las pantallas digitales de la misma manera.
Esto también se aplica a los teclados móviles en pantalla que parecen mini versiones de los mismos teclados y máquinas de escribir. Con el movimiento hacia el tacto, comenzó a definirse una forma completamente nueva de interactuar con nuestro entorno.
La evolución del diseño de la interfaz de usuario se ha visto influenciada por analogías comunes, hardware anterior e intuición (familiaridad y modelos mentales). Las mejores prácticas para reducir las barreras a la adopción (y un buen diseño de interfaz de usuario en general) incluyen el deseo de alinearse con los modelos mentales de las personas, mantener una mente abierta y mantener una conexión con el mundo ambiental.
Introduzca skeuomorphism, que fue un intento de ayudar a los usuarios a comprender cómo interactuar con una interfaz de usuario al hacer que los elementos de la interfaz de usuario en una pantalla bidimensional parezcan similares al mundo tridimensional. Los diseñadores crearon interfaces de usuario con controles digitales que se parecían a sus contrapartes físicas, como un dial giratorio para controlar el volumen en un reproductor de música digital.
Apple lideró esta tendencia bajo la dirección de Steve Jobs. No fue hasta que Jonathan Ive se volvió más influyente en Apple que el diseño skeuomorphic evolucionó lentamente hacia un estilo "más plano", marcado por el lanzamiento de iOS7 en 2013. El mundo estaba listo para dar el salto a señales menos literales y ahora podía apreciar el simplicidad de una interfaz minimalista.
Las Pautas de interfaz humana de iOS de Apple alentaron a los diseñadores a cambiar la mentalidad de " biseles, degradados y sombras paralelas " (que pueden conducir a elementos de interfaz de usuario de aspecto más pesado) y centrarse más en el contenido y permitir que la interfaz de usuario desempeñe un papel de apoyo.
Material Design de Google también cambió hacia una representación diferente de la tercera dimensión al dar profundidad a todo el lienzo digital con capas sutiles y sombras paralelas, a diferencia de los elementos individuales de la interfaz de usuario representados en skeuomorphism.
El diseño de materiales representa las “ superficies y bordes del material que brindan señales visuales que se basan en la realidad. El uso de atributos táctiles familiares ayuda a los usuarios a comprender rápidamente las posibilidades. Los fundamentos de la luz, la superficie y el movimiento son clave para transmitir cómo los objetos se mueven, interactúan y existen en el espacio y en relación unos con otros. ”
El tacto está centrado en el ser humano
Con el auge de los teléfonos inteligentes con pantalla táctil, las personas se familiarizaron con una variedad de gestos. Todos aprendieron la diferencia entre un pellizco, un toque y un toque prolongado, y se acostumbraron a acercar y alejar como una forma de acercar y alejar imágenes y mapas.
Este comportamiento se ha vuelto tan natural que es bastante justo suponer que al menos el 85 % de la población adulta ha intentado en algún momento acercar un mapa físico o una pantalla de escritorio. Y los bebés que usan tabletas han tratado de interactuar con elementos en las pantallas de televisión tocándolos.
Tocar pantallas para interactuar con una interfaz de usuario funciona porque es intuitivo, es decir, cuando las personas lo ven, saben exactamente qué hacer. Los humanos nacen para explorar todo con los dedos; es innato y un recordatorio de dónde empezó todo.
Las interfaces de usuario basadas en el tacto tenían un precio
En el camino, los diseñadores crearon algunos gestos bastante oscuros que hacían casi imposible encontrar y usar las interacciones disponibles en una interfaz de usuario móvil. La experiencia del usuario se vio afectada porque los diseñadores comenzaron a ocultar las interacciones gestuales por motivos estéticos.
Pero como sabe cualquier diseñador de UX que se precie, la visibilidad y la obviedad siempre ganan. Hay un dicho entre los diseñadores de UX: "Si la gente no puede encontrarlo, no existe".
En otras palabras, las interfaces de usuario táctiles tenían un precio. Siguiendo las tendencias, algunos diseñadores de UI ocultaron muchas funciones esenciales e interacciones disponibles detrás de una fachada elegante. El omnipresente menú de hamburguesas es un ejemplo; tiene problemas de usabilidad porque se considera navegación oculta. Tienen baja detectabilidad, por lo tanto, menos eficiencia.

El problema se vio agravado por la acalorada competencia entre Android e iOS, donde iOS inicialmente abrió el camino y redujo significativamente sus Directrices de interfaz humana. La simplicidad se veía hermosa, pero los diseñadores ocultaban los componentes feos o complicados, lo que a menudo hacía que las interfaces fueran más difíciles de usar. Android emuló muchas de las peores cosas que implementó Apple, y no fue hasta que se introdujo Material Design que la consistencia de la interfaz de usuario se convirtió en un estándar en el diseño de Android.
Para empeorar las cosas, los diseñadores comenzaron a emplear esta tendencia cada vez más, volviéndose perezosos con el uso excesivo de interacciones gestuales ocultas y confiando en extensas secuencias de incorporación para mostrar a las personas cómo usar sus interfaces de usuario móviles.
Una interfaz de usuario es como una broma. Si tienes que explicarlo, no es tan bueno. Martín Leblanc, iconfinder.com
Las interfaces de usuario táctiles solo funcionan en pantallas lo suficientemente grandes
Hoy en día, los dispositivos portátiles tienen pantallas tan pequeñas que las interacciones se vuelven difíciles. Es difícil navegar por algo demasiado complicado utilizando funciones centradas en el hardware como Digital Crown de Apple. El diseño revisita el comportamiento real de los relojes, pero utilizado en este escenario, todo se vuelve lento y complicado. Sin embargo, algunos dispositivos inteligentes van en la dirección correcta.
El Internet de las cosas (IoT) amplía el uso de nuestros dispositivos cotidianos en entornos interactivos y son excelentes ejemplos de imitación de hardware del mundo real bien hecha, poniendo la funcionalidad en primer plano. A diferencia de Digital Crown, los diales más grandes son funcionales y sensibles.
Tomando pistas visuales del diseño original del termostato e incorporando la forma en que las personas suelen usar los diales, Nest Learning Thermostat es un ejemplo de un producto que, si bien es fácil de usar, se adapta perfectamente al hogar.
Force Touch, una tecnología presentada por primera vez en 2014 durante la presentación del Apple Watch, también se implementó en los iPhone de sexta generación y se ha expandido rápidamente a todo tipo de dispositivos.
Las interfaces de usuario evolucionan nuevamente para imitar enfoques antiguos
El siguiente nivel en la evolución del diseño de la interfaz de usuario ilustra cómo todo cierra el círculo. El Apple Pencil es la mejor tecnología tanto de hardware como de software, y ayuda a los usuarios a dibujar y escribir en el ámbito digital. Si bien el Apple Pencil ahora ha convertido esta idea en la corriente principal, no fue hace tanto tiempo (2007) que Jobs dijo: "¿Quién quiere un lápiz óptico?" antes de presentar la tecnología multitáctil del iPhone.
Steve Jobs tenía un punto sobre la usabilidad y la dificultad de usar un lápiz óptico tan pequeño en una pantalla de dispositivo móvil pequeña; Terminó sin funcionar para Microsoft. La mayoría de los primeros dispositivos con Windows Mobile venían con un lápiz óptico, y la principal tecnología de entrada táctil eran las pantallas táctiles resistivas que a menudo requerían un lápiz óptico para la entrada. Las herramientas no eran adecuadas para la época, lo que obligó a las personas a usar un dispositivo similar a un bolígrafo para operar una interfaz de usuario móvil. No se sentía natural.
Cuando las pantallas portátiles se hicieron más grandes, llegó el momento de usar un dispositivo separado para la entrada (dibujar y escribir a mano) que se sintiera como un bolígrafo. Es la razón por la cual el Apple Pencil debutó en el iPad Pro de gran tamaño en lugar de los modelos más pequeños de 9,7 y 7,85 pulgadas.
El Apple Pencil está centrado en el ser humano porque emplea dos cosas ya familiares: un lápiz y una tableta. No hay necesidad de aprender nada nuevo para usarlo. El cerebro humano ha estado familiarizado con esta forma de escritura desde que nuestros antepasados presionaron el extremo romo de un lápiz de caña en tablillas de arcilla húmeda alrededor del año 3000 a.
A largo plazo, los diseñadores deben volverse más centrados en el ser humano en su filosofía de diseño y diseñar productos que faciliten comportamientos innatos, en lugar de aquellos que obligan a las personas a aprender nuevas habilidades.
Ir más allá del tacto: VUI
Si las pantallas pequeñas llevaron a los diseñadores a explorar otras formas de interactuar con la tecnología, los nuevos casos de uso en diferentes contextos los inspiraron a pensar en diferentes formas en que las personas podrían usar la tecnología.
Las interfaces de usuario de voz están ayudando a mejorar todo tipo de experiencias de usuario, y algunos creen que la voz impulsará el 50 % de todas las búsquedas para 2020.
La voz puede ser pasiva o interactiva y es una forma poderosa de interactuar con la tecnología, uno de sus beneficios es que es manos libres.
La interfaz de usuario se está convirtiendo en el mundo que nos rodea
Para ayudar al mundo ambiental a convertirse en una interfaz de usuario, Advanced Technologies and Projects (ATAP Lab) de Google desarrolló Project Soli, una nueva tecnología de detección que utiliza un radar en miniatura para rastrear el movimiento de la mano humana. Al permitir interacciones de gestos sin contacto, las interacciones se sienten físicas y receptivas porque la retroalimentación es generada por la sensación háptica de los dedos tocándose entre sí.
La tecnología y las pantallas que usamos hoy en día están desapareciendo en nuestro entorno. IoT (Internet de las cosas) e IA con asistencia de voz ya están aquí. Es el amanecer de la era de la "inteligencia ambiental" en la que una multitud de dispositivos funcionan en conjunto para ayudar a las personas a realizar sus actividades cotidianas. Como consecuencia, las interfaces de usuario basadas en pantalla están desapareciendo lentamente.
¿Cómo diseñarán los diseñadores para un mundo de "inteligencia ambiental" habilitado para IA? ¿Cuáles son las implicaciones para la evolución futura del diseño de la interfaz de usuario?
En este “nuevo mundo”, se tratará más de diseñar experiencias, no interfaces de usuario.
• • •
Lectura adicional en el blog de diseño de Toptal:
- Diseño de una VUI: interfaz de usuario de voz
- IU oscuras. El bueno y el malo. Normas.
- Principios heurísticos para interfaces móviles
- Futuro diseño de interfaz de usuario sin botones
- Repensar el diseño de la interfaz de usuario para la plataforma de TV