Usability-Tests mit echten Benutzern sind einer der Schlüsselbereiche, die zu viele Webdesigner überspringen. Für Tests gibt es oft wenig Geld im Budget, aber Remote-Usability-Tests können relativ kostengünstig durchgeführt werden, und die Ergebnisse können einen großen Unterschied bei den Conversions einer Website ausmachen.
Um die Leistungsfähigkeit von Usability Tests im Design zu demonstrieren, haben wir uns zusammengeschlossen UserTesting und Optimaler Workshop im Rahmen einer Redesign-Übung einige Tests auf Yelp durchzuführen.
Wir haben uns speziell für Remote-Usability-Tests entschieden, da sie im Vergleich zu Fokusgruppen und anderen laborbasierten Designtests relativ schnell und relativ kostengünstig ausgeführt werden können. Diese Tests waren alle unmoderiert, so dass die Benutzer mit der Yelp-Website bequem von zu Hause aus für die natürlichsten Ergebnisse interagieren konnten. Wir haben sie ermutigt, laut nachzudenken und dann ihre Reaktionen aufgezeichnet.
In der Benutzerforschung geht es nicht darum, komplexe Berichte zu schreiben - es geht darum, die richtigen Fragen zu stellen und die Beweise zu verwenden, um Designentscheidungen zu unterstützen. In diesem Teil werden wir uns ansehen, wie wir unsere Benutzer ausgewählt haben, wie wir die Aufgaben eingerichtet haben und was die Ergebnisse waren ...
Einer der ersten Schritte ist herauszufinden, wer Ihre Designs testet. Nach unserer Erfahrung haben wir festgestellt, dass die Demographie nicht so wichtig ist wie das Verhalten und die Vertrautheit mit Technologie. Wie oft benutzen sie ähnliche Plattformen und wie bequem sind sie?
Demografie ist nicht so wichtig wie das Verhalten und die Vertrautheit mit Technologie
Yelp hat eine riesige Benutzerbasis (138 Millionen einmalige Besucher pro Monat, laut Yelp Q2 2014 Zahlen ), so dass unsere neu gestaltete Website dem durchschnittlichen aktuellen Benutzer immer noch vertraut sein musste - es wäre nicht sinnvoll, bestehende Power User zugunsten der Erstanwender zu verprellen.
Wir haben uns nicht auf Alter, Geschlecht, Einkommensniveau oder Erfahrung mit dem Web konzentriert, da Yelp-Nutzer aus allen Bereichen kommen. Da wir mit qualitativen Daten arbeiten, mussten wir uns keine Gedanken über die statistische Signifikanz machen. Wir folgten Best Practices der Branche und führte unsere Studie mit insgesamt 5 Benutzern durch, die helfen würden, etwa 85% der Usability-Probleme aufzudecken (gut genug für die Übung).
Bei einer der Aufgaben mussten sich Benutzer bei einem Konto anmelden. Dies bedeutete, dass wir zwei Segmente für unsere Testbasis erstellen mussten: eine mit Yelp-Konten (3 Benutzer) und eine ohne (2 Benutzer). Für das Segment mit Yelp-Konten wählten wir nur Teilnehmer aus, die weniger als 6 Monate Yelp-Nutzer waren, um die Wahrscheinlichkeit, dass sie starke Nutzer sein würden, zu eliminieren.
Schließlich haben wir die Website von Yelp der Einfachheit halber nur auf Desktops und nicht auf mobilen Geräten getestet. (Wenn dies mehr als nur eine Übung wäre, hätten wir die Erfahrung auf so vielen Geräten wie möglich getestet.)
Jeder Usability-Test sollte mit der Frage beginnen: "Was wollen wir lernen?"
Für uns wollten wir erfahren, wie halb-regelmäßige Yelp-Benutzer sehr häufige Aufgaben erledigen (um herauszufinden, welche Funktionen am wichtigsten sind) und mindestens eine weniger häufige Aufgabe (um die Intuitivität fortgeschrittener Funktionen zu testen).
Wir haben allen Benutzern diese Art gemeinsamer Aufgaben gegeben:
Wir wollten herausfinden, wann beide Benutzergruppen im Gegensatz zu "durchsuchen" ausgewählt haben, wie sie mit Filtern interagiert haben und wie sie eine Entscheidung getroffen haben, welches Geschäft sie besuchen sollten.
Was die selteneren Aufgaben betrifft, haben wir für jede Benutzergruppe eine andere Aufgabe bereitgestellt.
Da wir einige Beschwerden von registrierten Yelp-Nutzern über Lesezeichen- und Listenfunktionen erhalten hatten, haben wir registrierte Nutzer (Gruppe 1) gebeten, Unternehmen zur späteren Bezugnahme zu speichern. Für nicht registrierte Benutzer (Gruppe 2) haben wir sie gebeten, ein Ereignis zu finden.
Im Folgenden sind alle Aufgaben aufgeführt, die wir beiden Gruppen zugewiesen haben. Nach jedem Test haben wir die Benutzer gefragt, ob sie in der Lage waren, die Aufgabe erfolgreich zu erledigen und wie leicht oder schwierig sie sind (bekannt als Single Ease Frage ).
Geteilte Aufgaben (beiden Gruppen zugewiesen)
Gruppe 1 Aufgaben (Yelp Kontoinhaber)
Gruppe 2 Aufgaben (nicht Kontoinhaber)
Sobald dies alles erledigt war, war es Zeit, mit dem Testen zu beginnen. Es dauerte etwa eine Stunde, bis wir die Ergebnisse sehen konnten, bevor wir die Reaktionen der Benutzer beobachten und die Daten analysieren konnten.
Um mit den qualitativen Daten, die wir jetzt hatten, zu vergleichen, führten wir einen quantitativen Test mit 35 Benutzern mit einer geschlossenen Kartensortierung und einem First-Click-Test durch. Sie können mehr über das lernen quantitative Benutzeraufgaben , aber wir fassen nur die wichtigsten Einsichten zusammen:
Um zu sehen, wie sich diese Erkenntnisse im neuen Design widerspiegeln, können Sie mit dem Low Fidelity Yelp Prototyp und schau dir die endgültiger High-Fidelity-Prototyp .