Die Welt ist unser Interface – Die Evolution des UI-Designs
Veröffentlicht: 2022-03-11Computer sind heute allgegenwärtig. Du kannst ihnen nicht entkommen. Wir leben in einem aufregenden Zeitalter des Designs und der Entwicklung von Benutzeroberflächen. eine neue technologische Ära, in der unsere Kleidung, Accessoires, Häuser, Autos und Straßen zu einer riesigen Benutzeroberfläche geworden sind – von manchen als „Welt der Umgebungsintelligenz“ bezeichnet.
Die Entwicklung des UI-Designs lässt sich in vier Perioden unterteilen: das Zeitalter der Tools, das Zeitalter der Maschine, das Zeitalter der Software und das Zeitalter des Selbst. Mit diesem schnellen Wachstum ist eine Erforschung der menschlichen Interaktion mit Objekten, der Umwelt und Technologie unerlässlich geworden.
Das Zeitalter der Werkzeuge
Mit primitiven Werkzeugen begannen die frühen Menschen zu kommunizieren, indem sie Tier- und Naturdarstellungen auf Steinoberflächen zeichneten. Hieroglyphen, die einen hohen Symbolwert hatten, waren eine der ersten Kommunikationsmethoden. Diese Symbolik entwickelte sich später zu Kunst, Schreiben, Dokumentation und Geschichtenerzählen.
Im Laufe der Zeit wurden die Werkzeuge immer ausgefeilter, was dazu führte, dass einige (z. B. Stifte) noch heute weit verbreitet sind. Wir haben den Kreis geschlossen und verwenden wieder einfache Symbole und Ikonografien wie Emojis, um Emotionen zu signalisieren und Feinheiten zu kommunizieren, die über Worte hinausgehen.
Das Zeitalter der Maschinen
Die industrielle Revolution betonte die Produktivität. Im „Zeitalter der Maschine“ bauten wir Objekte in großem Maßstab, um unser Leben einfacher zu machen. Es war eine Zeit, in der die Hardware selbst noch die wichtigste „Benutzerschnittstelle“ war.
Ein Beispiel dafür ist die Erfindung der Schreibmaschine im Jahr 1868 durch Christopher Latham Sholes. Wir fingen an, physische Tasten zu tippen, um Wörter zu bilden, immer noch mit unseren Händen, aber mit Hilfe der Schreibmaschine als Ersatz für den Stift. Es sparte Zeit und trug dazu bei, ein konsistentes und praktisches Format zu erstellen, das schnell übernommen werden konnte.
Maschinen wurden in Massenproduktion hergestellt und die Macht verlagerte sich auf sie. Die Hardware als Schnittstelle war eingetroffen; Der Nachteil war jedoch, dass es notwendig war, das Tippen zu lernen, bevor es verwendet werden konnte.
Das Softwarezeitalter
Software brauchte eine „Benutzeroberfläche“, und auf der Suche nach einem Modell, das für Benutzer einfach zu übernehmen wäre, wandten sich UI-Designer dem Verhalten der Menschen und früheren Hardwaredesigns zu, um sich inspirieren zu lassen.
Die Menschen hatten bereits ein mentales Modell einer Schreibmaschinentastatur; Sie wussten bereits, wie man tippt, also bestand die natürliche Weiterentwicklung darin, mit der Interaktion mit Text auf digitalen Bildschirmen auf die gleiche Weise zu beginnen.
Dies gilt auch für mobile Bildschirmtastaturen, die wie Mini-Versionen derselben Tastaturen und Schreibmaschinen aussehen. Mit der Bewegung in Richtung Berührung begann sich eine völlig neue Art der Interaktion mit unserer Umgebung zu definieren.
Die Entwicklung des UI-Designs wurde durch gemeinsame Analogien, vorangegangene Hardware und Intuition (Vertrautheit und mentale Modelle) beeinflusst. Zu den bewährten Methoden zum Abbau der Akzeptanzbarrieren (und für ein gutes UI-Design im Allgemeinen) gehört der Wunsch, sich an den mentalen Modellen der Menschen auszurichten, offen zu bleiben und eine Verbindung zur umgebenden Welt aufrechtzuerhalten.
Geben Sie Skeuomorphismus ein, der ein Versuch war, Benutzern zu helfen, zu verstehen, wie man mit einer Benutzeroberfläche interagiert, indem UI-Elemente auf einem zweidimensionalen Bildschirm ähnlich wie in der dreidimensionalen Welt erscheinen. Designer erstellten Benutzeroberflächen mit digitalen Bedienelementen, die wie ihre physischen Gegenstücke aussahen, wie z. B. ein Drehrad zur Steuerung der Lautstärke eines digitalen Musikplayers.
Apple führte diesen Trend bekanntermaßen unter der Leitung von Steve Jobs an. Erst als Jonathan Ive bei Apple einflussreicher wurde, entwickelte sich das skeuomorphe Design langsam zu einem „flacheren“ Stil, der durch die Veröffentlichung von iOS7 im Jahr 2013 gekennzeichnet war. Die Welt war bereit, den Sprung zu weniger wörtlichen Hinweisen zu wagen, und konnte dies nun zu schätzen wissen Einfachheit einer minimalistischen Benutzeroberfläche.
Die iOS Human Interface Guidelines von Apple ermutigten Designer dazu, ihre Denkweise von „ Blenden, Farbverläufen und Schlagschatten “ (was zu schwerer aussehenden UI-Elementen führen kann) zu ändern und sich mehr auf den Inhalt zu konzentrieren und der UI zu erlauben, eine unterstützende Rolle zu spielen.
Das Material Design von Google verlagerte sich auch zu einer anderen Darstellung der dritten Dimension, indem es der gesamten digitalen Leinwand Tiefe mit subtilen Ebenen und Schlagschatten verlieh, im Gegensatz zu einzelnen UI-Elementen, wie sie im Skeuomorphismus dargestellt werden.
Materialdesign stellt die „ Oberflächen und Kanten des Materials dar, die visuelle Hinweise liefern, die in der Realität verankert sind. Die Verwendung vertrauter taktiler Attribute hilft Benutzern, Angebote schnell zu verstehen. Die Grundlagen von Licht, Oberfläche und Bewegung sind der Schlüssel, um zu vermitteln, wie sich Objekte bewegen, interagieren und im Raum und in Beziehung zueinander existieren. ”
Berührung ist menschenzentriert
Mit dem Aufkommen des Touchscreen-Smartphones wurden die Menschen mit einer Reihe von Gesten vertraut. Jeder lernte den Unterschied zwischen einem Pinch, einem Tap, einem Long Tap und gewöhnte sich an das Auf- und Zuziehen, um Bilder und Karten zu vergrößern und zu verkleinern.
Dieses Verhalten ist so natürlich geworden, dass man davon ausgehen kann, dass mindestens 85 % der erwachsenen Bevölkerung schon einmal versucht haben, eine physische Karte oder einen Desktop-Bildschirm zu vergrößern. Und Babys, die Tablets verwenden, haben versucht, mit Elementen auf Fernsehbildschirmen zu interagieren, indem sie darauf tippen.
Das Berühren von Bildschirmen zur Interaktion mit einer Benutzeroberfläche funktioniert, weil es intuitiv ist, dh wenn die Leute es sehen, wissen sie genau, was zu tun ist. Menschen sind dazu geboren, alles mit ihren Fingern zu erkunden; es ist angeboren und eine Erinnerung daran, wo alles begann.
Berührungsbasierte Benutzeroberflächen hatten ihren Preis
Im Laufe der Zeit haben Designer einige ziemlich obskure Gesten erstellt, die es fast unmöglich machten, verfügbare Interaktionen in einer mobilen Benutzeroberfläche zu finden und zu verwenden. Die Benutzererfahrung litt darunter, dass Designer begannen, gestische Interaktionen aus ästhetischen Gründen zu verbergen.
Aber wie jeder UX-Designer weiß, gewinnen Erkennbarkeit und Offensichtlichkeit immer. Unter UX-Designern gibt es ein Sprichwort: „Wenn die Leute es nicht finden können, existiert es nicht.“
Mit anderen Worten, berührungsbasierte Benutzeroberflächen hatten ihren Preis. Einige UI-Designer folgten Trends und versteckten viele wesentliche Funktionen und verfügbare Interaktionen hinter einer eleganten Fassade. Das allgegenwärtige Hamburger-Menü ist ein Beispiel; es hat Usability-Probleme, weil es als versteckte Navigation betrachtet wird. Sie haben eine geringe Auffindbarkeit und daher weniger Effizienz.

Verschärft wurde das Problem durch den hitzigen Wettbewerb zwischen Android und iOS, bei dem iOS anfangs voranging und seine Human Interface Guidelines deutlich reduzierte. Die Einfachheit sah schön aus, aber die Designer versteckten die hässlichen oder komplizierten Komponenten, die die Verwendung von Schnittstellen oft schwieriger machten. Android emulierte viele der schlimmsten Dinge, die Apple implementiert hatte, und erst mit der Einführung von Material Design wurde die Konsistenz der Benutzeroberfläche zu einem Standard im Android-Design.
Um die Sache noch schlimmer zu machen, fingen Designer an, diesen Trend immer mehr zu nutzen, indem sie mit der übermäßigen Verwendung versteckter gestischer Interaktionen faul wurden und sich auf umfangreiche Onboarding-Sequenzen verließen, um den Menschen zu zeigen, wie sie ihre mobilen UIs verwenden.
Eine Benutzeroberfläche ist wie ein Witz. Wenn man es erklären muss, ist es nicht so gut. Martin Leblanc, iconfinder.com
Touch-UIs funktionieren nur auf ausreichend großen Bildschirmen
Heutzutage haben tragbare Geräte mit solchen kleinen Bildschirmen Interaktionen erschwert. Es ist schwierig, mit Hardware-zentrierten Funktionen wie Apples Digital Crown durch etwas zu Kompliziertes zu navigieren. Das Design greift das reale Verhalten von Uhren auf, aber in diesem Szenario wird alles zeitaufwändig und fummelig. Dennoch gehen einige intelligente Geräte in die richtige Richtung.
Das Internet der Dinge (IoT) erweitert die Nutzung unserer alltäglichen Geräte auf interaktive Umgebungen und ist ein großartiges Beispiel für die richtige Hardware-Nachahmung in der realen Welt, bei der die Funktionalität in den Vordergrund gestellt wird. Im Gegensatz zur Digital Crown sind größere Zifferblätter funktional und sinnvoll.
Das Nest Learning Thermostat ist ein Beispiel für ein Produkt, das sich, obwohl es einfach zu bedienen ist, nahtlos in das Zuhause einfügt, in Anlehnung an das ursprüngliche Design des Thermostats und die Art und Weise, wie Menschen normalerweise Zifferblätter verwenden, einfügt.
Force Touch, eine Technologie, die erstmals 2014 während der Einführung der Apple Watch vorgestellt wurde, wurde auch auf den iPhones der 6. Generation eingesetzt und hat sich schnell auf alle Arten von Geräten ausgeweitet.
UIs entwickeln sich erneut weiter, um alte Ansätze nachzuahmen
Die nächste Stufe in der Entwicklung des UI-Designs zeigt, wie sich der Kreis schließt. Der Apple Pencil ist sowohl Hardware- als auch Softwaretechnologie vom Feinsten und hilft Benutzern beim Zeichnen und Schreiben im digitalen Bereich. Während der Apple Pencil diese Idee mittlerweile zum Mainstream gemacht hat, ist es noch gar nicht so lange her (2007), dass Jobs den berühmten Ausspruch „Who Wants a Stylus? vor der Einführung der Multi-Touch-Technologie des iPhones.
Steve Jobs hatte einen Punkt in Bezug auf Benutzerfreundlichkeit und die Schwierigkeit, einen so kleinen Stift auf einem kleinen Bildschirm eines mobilen Geräts zu verwenden; es funktionierte schließlich nicht für Microsoft. Die meisten frühen Windows Mobile-Geräte waren mit einem Stift ausgestattet, und die primäre Touch-Eingabetechnologie waren resistive Touchscreens, für die häufig ein Stift zur Eingabe erforderlich war. Die Tools waren für die damalige Zeit nicht geeignet und zwangen die Menschen, ein stiftähnliches Gerät zu verwenden, um eine mobile Benutzeroberfläche zu bedienen. Es fühlte sich nicht natürlich an.
Als tragbare Bildschirme größer wurden, war die Zeit reif, ein separates Gerät für die Eingabe (Zeichnen und Handschrift) zu verwenden, das sich wie ein Stift anfühlte. Aus diesem Grund debütierte der Apple Pencil auf dem übergroßen iPad Pro anstelle der kleineren 9,7- und 7,85-Zoll-Modelle.
Der Apple Pencil ist auf den Menschen ausgerichtet, weil er zwei bereits bekannte Dinge verwendet: einen Bleistift und ein Tablett. Es ist nicht erforderlich, etwas Neues zu lernen, um es zu verwenden. Das menschliche Gehirn kennt diese Form des Schreibens, seit unsere Vorfahren um 3.000 v. Chr. das stumpfe Ende eines Schilfgriffels in nasse Tontafeln drückten
Langfristig müssen Designer in ihrer Designphilosophie menschenzentrierter werden und Produkte entwerfen, die angeborene Verhaltensweisen fördern, anstatt solche, die Menschen zwingen, sich neue Fähigkeiten anzueignen.
Über die Berührung hinausgehen – VUIs
Wenn kleine Bildschirme Designer dazu veranlassten, andere Möglichkeiten der Interaktion mit Technologie zu erkunden, inspirierten neue Anwendungsfälle in verschiedenen Kontexten sie dazu, über andere Möglichkeiten nachzudenken, wie Menschen Technologie nutzen könnten.
Sprachbasierte Benutzeroberflächen tragen dazu bei, alle Arten von Benutzererfahrungen zu verbessern, und einige glauben, dass Sprache bis 2020 50 % aller Suchanfragen ausmachen wird.
Sprache kann passiv oder interaktiv sein und ist eine leistungsstarke Möglichkeit, mit Technologie zu interagieren, wobei einer ihrer Vorteile darin besteht, dass sie freihändig ist.
Die Benutzeroberfläche wird zur Welt um uns herum
Um der umgebenden Welt dabei zu helfen, eine Benutzerschnittstelle zu werden, hat Googles Advanced Technologies and Projects (ATAP Lab) Project Soli entwickelt, eine neue Sensortechnologie, die ein Miniaturradar zur Bewegungsverfolgung der menschlichen Hand verwendet. Durch die Aktivierung von berührungslosen Gesteninteraktionen fühlen sich die Interaktionen physisch und reaktionsschnell an, da Feedback durch das haptische Gefühl von Fingern erzeugt wird, die sich berühren.
Die Technologie und die Bildschirme, die wir heute verwenden, verschwinden in unserer Umgebung. IoT (Internet of Things) und KI mit Sprachunterstützung sind bereits da. Es ist der Beginn des Zeitalters der „Umgebungsintelligenz“, in dem eine Vielzahl von Geräten zusammenarbeiten, um Menschen bei ihren alltäglichen Aktivitäten zu unterstützen. Infolgedessen verschwinden bildschirmbasierte Benutzeroberflächen langsam.
Wie werden Designer für eine KI-fähige Welt mit „Ambient Intelligence“ entwerfen? Was sind die Implikationen für die zukünftige Entwicklung des UI-Designs?
In dieser „neuen Welt“ wird es mehr um das Design von Erlebnissen gehen, nicht um UIs.
• • •
Weiterführende Literatur im Toptal Design Blog:
- Entwerfen einer VUI – Voice User Interface
- Dunkle Benutzeroberflächen. Das Gute und das Böse. Verhaltensregeln.
- Heuristische Prinzipien für mobile Schnittstellen
- Zukünftiges UI-Design ohne Schaltflächen
- User Interface Design für die TV-Plattform neu denken