Świat jest naszym interfejsem – ewolucja projektowania interfejsu użytkownika

Opublikowany: 2022-03-11

Dziś komputery są wszechobecne. Nie możesz im uciec. Żyjemy w ekscytującej erze projektowania i ewoluujących interfejsów użytkownika; nowa era technologii, w której nasze ubrania, akcesoria, domy, samochody i ulice stały się jednym ogromnym interfejsem użytkownika – nazywanym przez niektórych „światem inteligencji otoczenia”.

Ewolucję projektowania interfejsu użytkownika można podzielić na cztery okresy: wiek narzędzi, wiek maszyny, wiek oprogramowania i wiek jaźni. Wraz z tym szybkim rozwojem, badanie interakcji człowieka z przedmiotami, środowiskiem i technologią stało się niezbędne.

Wiek narzędzi

Używając prymitywnych narzędzi, pierwsi ludzie zaczęli się komunikować, rysując przedstawienia zwierząt i przyrody na kamiennych powierzchniach. Hieroglify, które były wysoce symboliczne, były jedną z pierwszych metod komunikacji. Ta symbolika rozwinęła się później w sztukę, pisanie, dokumentację i opowiadanie historii.

Z biegiem czasu narzędzia stały się bardziej wyrafinowane, w wyniku czego niektóre (np. długopisy) są nadal w powszechnym użyciu. Zatoczyliśmy koło i ponownie używamy prostych symboli i ikonografii, takich jak emotikony, do sygnalizowania emocji i komunikowania subtelności wykraczających poza słowa.

Używanie symboli było częścią ewolucji projektowania interfejsu użytkownika.

Wiek maszyn

Rewolucja przemysłowa położyła nacisk na produktywność. W „erze maszyny” budowaliśmy przedmioty na dużą skalę, aby nasze życie stało się łatwiejsze. Były to czasy, kiedy sam sprzęt był nadal głównym „interfejsem użytkownika”.

Jednym z przykładów jest wynalazek maszyny do pisania w 1868 roku przez Christophera Lathama Sholesa. Zaczęliśmy stukać w klawisze fizyczne, aby tworzyć słowa, nadal używając rąk, ale za pomocą maszyny do pisania jako zamiennika pióra. Zaoszczędziło to czas i pomogło stworzyć spójny i praktyczny format, który można było szybko przyjąć.

Maszyny były masowo produkowane i moc przeniosła się na nie. Przybył sprzęt jako interfejs; wadą było jednak to, że trzeba było nauczyć się pisać przed użyciem.

Wczesne klawiatury maszyn do pisania były częścią ewolucji projektowania interfejsu użytkownika.

Wiek oprogramowania

Oprogramowanie wymagało „interfejsu użytkownika” i szukając modelu, który byłby łatwy do przyjęcia przez użytkowników, projektanci interfejsu użytkownika zainspirowali się zachowaniami ludzi i wcześniejszymi projektami sprzętu.

Ludzie mieli już mentalny model klawiatury maszyny do pisania; wiedzieli już, jak pisać, więc naturalnym postępem było rozpoczęcie interakcji z tekstem na ekranach cyfrowych w ten sam sposób.

Dotyczy to również mobilnych klawiatur ekranowych, które wyglądają jak mini wersje tych samych klawiatur i maszyn do pisania. Wraz z ruchem w kierunku dotyku zaczęto definiować zupełnie nowy sposób interakcji z naszym środowiskiem.

Historia projektowania interfejsu użytkownika: interfejs użytkownika Xerox Star z 1973 r.
Stacja robocza Xerox Star wprowadziła pierwszy komercyjny graficzny interfejs użytkownika (GUI) w 1973 roku. Zwróć uwagę na menu „hamburger”, które jest obecnie powszechnie używane w mobilnych interfejsach użytkownika.


Na ewolucję projektowania interfejsu użytkownika miały wpływ wspólne analogie, poprzedzający sprzęt i intuicja (znajomość i modele mentalne). Najlepsze praktyki obniżania barier w adopcji (i ogólnie dobrego projektowania interfejsu użytkownika) obejmują chęć dostosowania się do modeli mentalnych ludzi, utrzymywanie otwartego umysłu i utrzymywanie połączenia z otaczającym światem.

Wprowadź skeuomorfizm, który był próbą pomocy użytkownikom w zrozumieniu interakcji z interfejsem użytkownika poprzez sprawienie, by elementy interfejsu na dwuwymiarowym ekranie wyglądały podobnie do świata trójwymiarowego. Projektanci stworzyli interfejsy użytkownika z cyfrowymi kontrolkami, które wyglądały jak ich fizyczne odpowiedniki, takie jak obrotowe pokrętło do regulacji głośności w cyfrowym odtwarzaczu muzycznym.

Apple słynie z tego trendu pod kierunkiem Steve'a Jobsa. Dopiero, gdy Jonathan Ive stał się bardziej wpływowy w Apple, skeuomorficzny projekt powoli przekształcił się w bardziej „płaski” styl, naznaczony wydaniem iOS7 w 2013 roku. Świat był gotowy na skok w kierunku mniej dosłownych wskazówek i mógł teraz docenić prostota minimalistycznego interfejsu.

Skeuomorfizm był koncepcją projektowania interfejsu użytkownika.
Skeuomorficzny projekt interfejsu użytkownika.

Wytyczne Apple dotyczące interfejsu ludzkiego dla systemu iOS zachęcały projektantów do zmiany sposobu myślenia z „ ramek, gradientów i cieni ” (co może prowadzić do cięższych elementów interfejsu użytkownika) i skupienia się bardziej na treści oraz umożliwienia interfejsu użytkownika odgrywania roli pomocniczej.

Material Design Google również przesunął się w kierunku innej reprezentacji trzeciego wymiaru, nadając całemu cyfrowemu płótnu głębię z subtelnymi warstwami i cieniami, w przeciwieństwie do pojedynczych elementów interfejsu użytkownika przedstawionych w skeuomorfizmie.

Material design przedstawia „ powierzchnie i krawędzie materiału, które zapewniają wizualne wskazówki, które są ugruntowane w rzeczywistości. Użycie znanych atrybutów dotykowych pomaga użytkownikom szybko zrozumieć afordancje. Podstawy światła, powierzchni i ruchu są kluczem do przekazania, w jaki sposób obiekty poruszają się, oddziałują i istnieją w przestrzeni oraz we wzajemnych relacjach.

Struktura projektowania interfejsu użytkownika Google Material Design

Dotyk jest ukierunkowany na człowieka

Wraz z pojawieniem się smartfona z ekranem dotykowym ludzie poznali szereg gestów. Każdy nauczył się różnicy między szczyptą, stuknięciem, długim stuknięciem i przyzwyczaił się do szczypania i pomniejszania jako sposobu powiększania i pomniejszania obrazów i map.

To zachowanie stało się tak naturalne, że można założyć, że co najmniej 85% dorosłej populacji w pewnym momencie próbowało powiększyć mapę fizyczną lub ekran komputera. A dzieci korzystające z tabletów próbowały wchodzić w interakcje z elementami na ekranie telewizora, dotykając ich.

Dotykanie ekranów w celu interakcji z interfejsem użytkownika działa, ponieważ jest intuicyjny, tj. kiedy ludzie go widzą, wiedzą dokładnie, co robić. Ludzie rodzą się, by odkrywać wszystko palcami; jest wrodzona i przypomina, gdzie wszystko się zaczęło.

Historia projektowania interfejsu użytkownika i dziecko z tabletem

Dotykowe interfejsy użytkownika mają swoją cenę

Po drodze projektanci stworzyli dość niejasne gesty, które prawie uniemożliwiły znalezienie i wykorzystanie dostępnych interakcji w mobilnym interfejsie użytkownika. Wrażenia użytkownika ucierpiały, ponieważ projektanci zaczęli ukrywać interakcje gestów ze względów estetycznych.

Ale jak wie każdy godny uwagi projektant UX, zawsze wygrywa odnajdywanie i oczywistość. Wśród projektantów UX krąży powiedzenie: „Jeśli ludzie nie mogą tego znaleźć, to nie istnieje”.

Innymi słowy, dotykowe interfejsy użytkownika miały swoją cenę. Podążając za trendami, niektórzy projektanci interfejsu użytkownika ukryli za elegancką fasadą wiele podstawowych funkcji i dostępnych interakcji. Jednym z przykładów jest wszechobecne menu hamburgerów; ma problemy z użytecznością, ponieważ jest uważana za ukrytą nawigację. Mają niską wykrywalność, a zatem mniejszą wydajność.

Poszukiwani niezależni projektanci UI z siedzibą w USA

Problem pogłębiała zaciekła konkurencja między Androidem i iOS, gdzie iOS początkowo prowadził i znacznie ograniczył wytyczne dotyczące interfejsu ludzkiego. Prostota wyglądała pięknie, ale projektanci ukrywali brzydkie lub skomplikowane komponenty, co często utrudniało korzystanie z interfejsów. Android emulował wiele najgorszych rzeczy zaimplementowanych przez Apple i dopiero po wprowadzeniu Material Design spójność interfejsu użytkownika stała się standardem w projektowaniu systemu Android.

Co gorsza, projektanci zaczęli coraz częściej wykorzystywać ten trend, rozleniwiając się nadużywaniem ukrytych interakcji gestów i polegając na obszernych sekwencjach onboardingowych, aby pokazać ludziom, jak korzystać z mobilnych interfejsów użytkownika.

Interfejs użytkownika jest jak żart. Jeśli musisz to wyjaśnić, to nie jest takie dobre. Martin Leblanc, iconfinder.com

Niektóre sekwencje onboardingu naruszają podstawy projektowania interfejsu użytkownika.
Obszerna sekwencja wdrażania mobilnego z instrukcjami.

Interfejsy dotykowe działają tylko na wystarczająco dużych ekranach

Dziś urządzenia do noszenia mają tak małe ekrany, że interakcje stają się trudne. Trudno jest poruszać się po czymś zbyt skomplikowanym, korzystając z funkcji skoncentrowanych na sprzęcie, takich jak Digital Crown firmy Apple. Projekt powraca do rzeczywistego zachowania zegarków, ale w tym scenariuszu wszystko staje się czasochłonne i kłopotliwe. Niemniej jednak niektóre inteligentne urządzenia idą we właściwym kierunku.

Internet rzeczy (IoT) rozszerza wykorzystanie naszych urządzeń codziennego użytku w środowiskach interaktywnych i jest doskonałym przykładem właściwego naśladowania sprzętu w świecie rzeczywistym, stawiając funkcjonalność na pierwszym planie. W przeciwieństwie do Digital Crown większe tarcze są funkcjonalne i sensowne.

Termostat Nest: IoT i ewolucja projektowania interfejsu użytkownika


Wykorzystując wizualne wskazówki z oryginalnego projektu termostatu i uwzględniając sposób, w jaki ludzie zwykle używają pokręteł, Nest Learning Thermostat jest przykładem produktu, który choć jest prosty w użyciu, bezproblemowo pasuje do domu.

Force Touch, technologia zaprezentowana po raz pierwszy w 2014 roku podczas wprowadzenia Apple Watch, została również wdrożona w iPhone’ach 6. generacji i szybko rozszerzyła się na wszystkie rodzaje urządzeń.

Ewolucja interfejsu użytkownika: zegarek Apple Watch z technologią Force Touch

Interfejsy użytkownika ponownie ewoluują, aby naśladować starożytne podejścia

Kolejny poziom ewolucji projektowania interfejsu użytkownika pokazuje, jak wszystko zatacza krąg. Apple Pencil to najlepsza technologia sprzętowa i programowa, która pomaga użytkownikom rysować i pisać w cyfrowym świecie. Podczas gdy Apple Pencil wprowadził ten pomysł do głównego nurtu, nie tak dawno temu (2007 r.) Jobs powiedział: „Kto chce rysika?” przed wprowadzeniem technologii wielodotykowej iPhone'a.

Steve Jobs miał rację co do użyteczności i trudności w używaniu tak małego rysika na małym ekranie urządzenia mobilnego; zakończyło się to niedziałaniem dla Microsoftu. Większość wczesnych urządzeń z systemem Windows Mobile była wyposażona w rysik, a podstawową technologią wprowadzania dotykowego były rezystancyjne ekrany dotykowe, które często wymagały rysika do wprowadzania danych. Narzędzia nie były odpowiednie na czas, zmuszając ludzi do używania urządzenia przypominającego pióro do obsługi mobilnego interfejsu użytkownika. To nie było naturalne.

Kiedy przenośne ekrany stawały się coraz większe, nadszedł czas, aby użyć oddzielnego gadżetu do wprowadzania danych (rysowania i pisma ręcznego), który przypominał pióro. To jest powód, dla którego Apple Pencil zadebiutował na przewymiarowanym iPadzie Pro zamiast na mniejszych 9,7- i 7,85-calowych modelach.

Apple Pencil z iPadem Pro: kolejna ewolucja interfejsu użytkownika

Apple Pencil jest skoncentrowany na człowieku, ponieważ wykorzystuje dwie już znane rzeczy: ołówek i tablet. Nie trzeba uczyć się niczego nowego, aby z niego korzystać. Mózg człowieka zna tę formę pisma od czasu, gdy nasi przodkowie około 3000 lat p.n.e. wcisnęli tępy koniec trzcinowego rylca do mokrych glinianych tabliczek

W dłuższej perspektywie projektanci muszą stać się bardziej skoncentrowani na człowieku w swojej filozofii projektowania i projektować produkty, które ułatwiają wrodzone zachowania, a nie te, które zmuszają ludzi do uczenia się nowych umiejętności.

Wyjście poza dotyk – VUI

Jeśli małe ekrany skłoniły projektantów do zbadania innych sposobów interakcji z technologią, nowe przypadki użycia w różnych kontekstach zainspirowały ich do myślenia o różnych sposobach korzystania z technologii przez ludzi.

Głosowe interfejsy użytkownika przyczyniają się do poprawy wszelkiego rodzaju doświadczeń użytkowników, a niektórzy uważają, że głos będzie obsługiwał 50% wszystkich wyszukiwań do 2020 roku.

Głos może być pasywny lub interaktywny i jest potężnym sposobem interakcji z technologią, a jedną z jego zalet jest to, że nie wymaga użycia rąk.

Ewolucja UI w VUI

Interfejs użytkownika staje się światem wokół nas

Aby pomóc otaczającemu światu stać się interfejsem użytkownika, Google Advanced Technologies and Projects (ATAP Lab) opracował Project Soli, nową technologię wykrywania, która wykorzystuje miniaturowy radar do śledzenia ruchu ludzkiej dłoni. Umożliwiając bezdotykowe interakcje gestami, interakcje są fizyczne i responsywne, ponieważ sprzężenie zwrotne jest generowane przez wrażenia dotykowe dotykania się palców.

Project Soli najnowszy w ewolucji projektowania interfejsu użytkownika


Technologia i ekrany, z których dzisiaj korzystamy, znikają w naszym otoczeniu. IoT (Internet of Things) i sztuczna inteligencja z pomocą głosową już tu są. Nastała era „inteligencji otoczenia”, w której wiele urządzeń współpracuje ze sobą, aby wspierać ludzi w wykonywaniu codziennych czynności. W rezultacie interfejsy użytkownika oparte na ekranach powoli znikają.

W jaki sposób projektanci zaprojektują świat oparty na sztucznej inteligencji i „inteligentnej inteligencji otoczenia”? Jakie są implikacje dla przyszłej ewolucji projektowania interfejsu użytkownika?

W tym „nowym świecie” będzie bardziej chodziło o projektowanie doświadczeń, a nie interfejsy użytkownika.

• • •

Dalsza lektura na blogu Toptal Design:

  • Projektowanie VUI – głosowy interfejs użytkownika
  • Ciemne interfejsy użytkownika. Dobry i zły. Za I przeciw.
  • Zasady heurystyczne dla interfejsów mobilnych
  • Przyszły projekt interfejsu użytkownika bez przycisków
  • Ponowne przemyślenie projektu interfejsu użytkownika dla platformy telewizyjnej