Blickbewegungen zur Analyse von Oberflächen

Eye-Tracking als Evaluationsmethode ist effektiv und führt schnell zum Ziel. Der wohl entscheidendste Arbeitsschritt, neben der Aufzeichnung der Blickbewegungen, ist die Auswertung.

Für die Auswertung ist es wichtig, dass die Aufnahmen eine gute Qualität hinsichtlich der Blickbewegung der Testperson aufweisen. Die Qualität kann mittels eines Nachtests während der Aufnahme überprüft werden. Die Testperson kann dieses Ergebnis unbewusst beeinflussen, indem sie sich beispielsweise zu stark vor- und rückwärts bewegt und somit den anfangs eingestellten Abstand zwischen Kamera und Stimulus signifikant verändert. Solche Beeinflussungen können mittels des Analyseprogramms im Nachhinein korrigiert werden. Verschiedene Visualisierungstechniken passend für das Einsatzziel des Eye-Tracking-Tests stellen die Blickbewegungen der Probanden dar. Dadurch können nicht nur Anwendungen , sondern auch andere physische Oberflächen wie Arbeitsplätze analysiert und optimiert werden.

Da die Nutzung von Eye-Trackern grundsätzlich mit einem sehr großen Datenaufkommen verbunden ist, ist es wichtig, diese Daten auch zu verstehen. Die signifikanten Indikatoren, in denen Eye-Tracking Daten klassifiziert werden können, sind die folgenden (Sharafi u. a., 2015, S. 81):

  • Stimulus: Das Objekt, welches der Nutzer während eines Tests betrachtet
  • Area of Interest (AOI): ist ein bestimmter Bereich in einem Stimulus. Der Bereich kann für das Forschungs- oder Designteam von Interesse sein und wird von diesem vor oder nach den Aufnahmen definiert. Dabei werden die visuellen Szenen kategorisiert, indem sie durch eine geometrische Form dargestellt werden. AOIs bilden die Grundlage für quantitative Analysen.
  • Fixation: ist die Augenbewegung, die eine Stelle repräsentiert, auf die die Augen für eine bestimmte Zeit gerichtet waren. Die Zeitspanne ist in der Regel ein Bereich von rund 100 und 300 Millisekunden. Fixationen dienen dazu, dass schneller herausgefunden werden kann, wo die Blicke der Probanden länger verharren. Alle Eye-Tracker liefern diese Daten, die in x- und y-Koordinaten dargestellt werden.
  • Gaze Duration (Blickdauer): ist die Zusammenfassung aufeinanderfolgender Fixierungen, verbunden durch kurze Sakkaden (eine plötzliche und schnelle Augenbewegung von einer Fixation zur anderen), in einem festgelegten Zeitrahmen innerhalb einer AOI. Dabei spiegeln diese Daten die kumulative Dauer und durchschnittliche räumliche Lage des Blicks wieder. Das Ende der Blickdauer wird durch eine Fixation außerhalb der AOI gekennzeichnet. Manche Autoren verstehen unter der Gaze Duration die Summe der Zeit aller Fixierungen in der AOI innerhalb der gesamten Studie. Die Blickbewegung als Besuch innerhalb einer AOI, von Eintritt bis Austritt, wird aber auch Dwell Time (Verweildauer) genannt. Es beginnt eine neue Dwell Time bzw. Gaze Duration, wenn der Blick zurück in eine bereits fixierte AOI wandert.
  • Scanpath: ist die Abbildung einer Serie von Fixierungen oder AOIs in chronologischer Reihenfolge. Studien fanden heraus, dass die Darstellung des Scanpaths abhängig von der Aufgabe ist, die dem Probanden gestellt wird und entsprechend den Kern der meisten Analysen bildet.

Die folgende Abbildung visualisiert die Erklärungen der verschiedenen Indikatoren und setzt diese in Zusammenhang:

Scanpath.jpg
Zusammenwirkung der Analyseindikatoren (Quelle: in Anlehnung an Holmqvist u. a., 2011, S. 386; Sharafi u.a., 2015, S. 82)

Die aufgezeichneten Blickbewegungen sind durch verschiedene Visualisierungstechniken veranschaulicht werden. Dazu zählen unter anderem:

  • Scanpath
  • Heatmap
  • Bee-Swarm
  • Lichtpunkte

Der Scanpath als auch die Heatmap sind die am häufigsten verwendeten Visualisierungstechniken.

Auswertung und Interpreation der Visualisierungen

Ein Eye-Tracking Ergebnis ist immer im Hinblick auf die zu erreichenden Projektziele und im Zusammenhang mit der Einordnung des Probanden in die jeweilige Zielgruppe auszuwerten. Hierbei spielen Kommentare der Probanden und vollständig/unvollständig erledigte Aufgaben während des Tests eine große Rolle. Die Interpretation der Ergebnisse erfolgt somit immer auf Basis dieser Informationen. Im Folgenden werden die Visualisierungen Heatmap und Scanpath beschrieben und beispielhaft eine Auswertung für einen konkreten Visualisierungsfall aufgezeigt.

Bei der Heatmap wird ein statisches Bild erstellt. Sie basiert auf der Darstellung von Fixationen, welche farblich hervorgehoben werden. Dabei unterscheiden sich die Häufigkeiten und Länge der Fixation durch einen Farbgradienten. Dieser bildet meist ein Farbspektrum von Blau (wenige bzw. kurze Fixationen) zu Rot (viele bzw. lange Fixationen) ab. Das bedeutet, dass die Bereiche als wärmer dargestellt werden, je länger oder je häufiger der Proband die entsprechenden Bereiche fixiert.

Heatmap_FG Kopie (1).png
Beispiel: Heatmap

Heatmaps finden in der Usability vor allem dann Einsatz, wenn es um die gesamte Aufmerksamkeiterregung einzelner Bereiche geht, die sich durch ihre Häufigkeiten unterscheiden. Diese Visualisierungstechnik erlaubt Aussagen über Bereiche, die der Nutzer gesehen hat und über die Bereiche, die übersehen wurden. Dadurch kann beurteilt werden, ob evtl. wichtige Informationen dem Nutzer entgangen sind oder nicht (Olmsted-Hawala u. a., 2014, S. 61).

Die untere Abbildung zeigt solch eine Heatmap. Die Farbe rot signalisiert in diese Fall, dass das Hauptaugenmerk auf dem mittleren Abschnitt der Seite liegt. Auch der Teaser ist eine AOI, bei dem der Fokus auf den wichtigen Elementen liegt. Sowohl das Bild als auch der kurze Textabschnitt werden von dem Nutzer länger fixiert. Eine Aussage, ob der entsprechende Text auch gelesen wurde, kann die Heatmap an dieser Stelle nicht vollkommen beantworten. Dennoch können beispielsweise folgende Fragen beantwortet werden:

  • Sind dem Nutzer wichtige Informationen entgangen?
  • Ist der Fokus der Nutzer auch auf den von mir gewünschten Elementen?
  • Transportieren die Bilder die gewünschten Informationen?

Für das abgebildete Heatmap-Beispiel sind mögliche Auswertungsergebnisse wie folgt:

  1. Das Bild zeigt, dass der Nutzer alle wichtigen Informationen wahrgenommen hat.
  2. Das Ziel, das die Nutzer den gesamten Text bis zum Ende der Seite lesen, ist nicht erfüllt. Es wird deutlich, dass die Attraktivität dieses Abschnittes gesteigert werden sollte. Der Textabschnitt wird zwar gesehen, jedoch nicht komplett gelesen.
  3. Teaserbildinformationen und Interaktionselemente unterhalb des Teasers sind die wichtigsten AOI (stärkste Fixationsdauer und Häufigkeit). Der größere textuelle Bereich wird vom Nutzer weniger fokussiert. Hierbei besteht Verbesserungsbedarf, bei dem unterschiedliche Lösungsvarianten zur Auswahl stehen: Veränderung der Positionierung, Inhaltliche Anpassung des Textes über Kürzung, Geänderte Formatierung und Bulletpoint-Darstellung.

Der Scanpath ist eine dynamische Visualisierungstechnik, die weit verbreitet ist. Die Fixationen werden überwiegend als Kreise dargestellt, welche in Abhängigkeit der Fixationsdauer intensiver dargestellt werden können. Es kann die Reihenfolge von den Augenbewegungen abgebildet werden, da die Kreise durch Sakkaden nacheinander verbunden werden, als auch optional nummeriert sind. Liegt eine hohe Datenmenge vor, kann der Scanpath jedoch schnell unübersichtlich werden.

SP BSP.jpg
Beispiel: Scanpath

Diese Technik findet vor allem dann Einsatz, wenn die Reihenfolge von den aufmerksamkeitserregenden Bereichen von Bedeutung ist. Die Übersichtlichkeit von Bereichen kann zwar bei längeren Aufnahmen verloren gehen, so ist jedoch die Erschließung eines genaueren Kontexts möglich, wieso bestimmte Bereiche vermehrt bzw. weniger betrachtet wurden. Es kann durch den Scanpath beurteilt werden, ob der Nutzer mit der Navigationsstruktur der Anwendung zurecht kommt und wo er welche Elemente vermutet hätte (Olmsted-Hawala u. a., 2014, S. 64, 67).

Die nächste Abbildung zeigt solch einen Scanpath auf der Oberfläche eines Bedienpanels. Hierbei ist die Abbildung ein Ausschnitt aus einer Videosequenz, wobei der Scanpath dynamisch über die Zeit die Blickbewegung des Nutzers abbildete. Das Bild zeigt, dass vor allem die zu nutzenden Tasten für den Nutzer von Bedeutung sind. Dies lässt schlussfolgern, dass der Nutzer des Bedienpanels ungeübt in dessen Handhabung ist und einen großen Fokus auf die Bedienung der richtigen Tasten legt. Hinsichtlich des Bildschirms wird deutlich, dass die AOI auf dem oberen Bereich liegt. Das Scanpath-Netz signalisiert, dass der unten angesiedelte Informationsbereich (in grau hinterlegt) von dem Nutzer nicht gesehen wird. Alle dort auftauchenden Hinweise werden vom Nutzer ignoriert. Davon kann abgeleitet werden, dass die Hinweise in ihrer Attraktivität oder Positionierung geändert werden müssen. Neben diesen Aussagen kann auch eine Vielzahl an anderen Fragen beantwortet werden, wie:

  • Kommt der Nutzer mit der Navigationsstruktur der Anwendung zurecht?
  • Wo hätte der Nutzer welche Elemente vermutet?
  • Wird vermehrt nach Elementen gesucht oder fallen die nötigen Elemente direkt ins Auge?
  • Wovon wird der Nutzer abgelenkt?

Anhand des unten abgebildeten Beispiels, mit dem Hintergrund des entsprechenden dynamischen Videos, lassen sich folgende Hypothesen ableiten:

  1. Der Nutzer ist nur fähig, sich unter Anleitung eines Experten durch die Bedienung des Panels zu navigieren. Es ist keine instinktive Handhabung des Panels gegeben, was vor allem durch die starke Fixationen der Bedientasten abgeleitet werden kann.
  2. Alle, zur Steuerung wichtigen Elemente, sollten an den vertikalen Seiten des Panels angesiedelt sein. Die Bedienelemente an horizontalen Rändern des Displays werden nicht wahrgenommen.
  3. Es wird verstärkt nach den entsprechenden Elementen gesucht. Da die Fixationen auf dem Display zahlreich und verstreut sind, können kaum tragende AOIs ermittelt werden. Dies lässt darauf schließen, dass es dem Nutzer schwer gefallen ist, die entsprechenden Elemente auf dem Display zu priorisieren und für ihn wichtige Elemente herauszufiltern. Anders ist dies bei der Tastenbedienung um das Display herum. Hier wurde (durch Hinweise des Experten) dem Nutzer schnell deutlich, welche Bereiche der Tasten für ihn von Bedeutung sind.
  4. Der Nutzer wird von der Vielzahl an Bedienelementen abgelenkt. Es ist inkonsistent, dass sowohl die Tasten als auch die Touchbedienung des Displays für eine erfolgreiche Bedienung zum Einsatz kommen muss. Des Weiteren sind die farbigen Tasten des Panels eher verwirrend als unterstützend für den Nutzer.

Diese Visualisierungstechniken gehen mit verschiedenen Metriken einher, wie die Anzahl der Fixationen, dessen Dauer oder der Anordnung dieser Fixationen. Die Metriken sind die Interpretationsgrundlage der Auswertung der visuell dargestellten Indikatoren. Drei Beispiele dieser Metriken sind in der Tabelle zu finden :

Metrik Beschreibung Usability Bewertung Einheit Quelle

Erste Fixation

  • Zeitspanne bis zur ersten Fixation eines Bereichs oder Objekts
  • Weist auf bessere aufmerksamkeitserregende Eigenschaften hin
  • Je länger, desto schlechter die Aufmerksamkeit

ms

(Byrne u. a., 1999, S. 404–405; Ehmke und Wilson, 2007, S. 121)

Gesamte Anzahl der Fixationen

  • Summe der Fixationen für einen Stimulus
  • Relation zu der Zeit möglichst beachten
  • Kann auf ineffizientes Suchen deuten
  • Hinweis für suboptimales Layout

Anzahl

(Goldberg und Kotval, 1999, S. 643)

Fixations-dauer

  • Längere Fixierung eines Objekts

Unterteilung in:

  • Dauer der längsten Fixation (Betrachtung nur einer Fixationsdauer)
  • Durchschnittliche Fixationsdauer (Anzahl im Verhältnis zur summierten Fixationsdauer)
  • Signalisiert Schwierigkeiten beim Extrahieren der Informationen oder
  • Weist auf höheres Interesse hin
  • Unterscheidung zwischen freiwilligen (>320 ms) und unfreiwilligen (>240 ms) Fixierungen
  • Weitere Untersuchungen notwendig

ms

(Ehmke und Wilson, 2007, S. 121; Goldberg und Kotval, 1999, S. 643; Jacob und Karn, 2003, S. 585; Just und Carpenter, 1976, S. 472)

Besonders auffällig hierbei ist, dass die Auswertung der Blickbewegungen von Gegensätzen geprägt ist. Die Blickbewegung kann ohne Zuhilfenahme des Joy of Use des Nutzers schnell fehlinterpretiert werden. Daher ist es wichtig, während bzw. nach einem Eye-Tracking Test in Kommunikation über das Erlebte mit dem Nutzer zu treten. Sonst können beispielsweise längere Fixationen auf ein Element als großes Interesse fehlinterpretiert werden. Durch das verbale Feedback der Nutzer während des Betrachtens von Elementen bzw. auch durch eine Nachbefragung werden die notwendigen Informationen erhoben, die für die korrekte Auswertung bezüglich der Projektziele grundlegend sind.

Der größere Anteil bei der Auswertung ist die Analyse der Eye-Tracking Aufnahme im Vergleich zur reinen Testzeit mit dem Probanden. Hierbei werden die Blickbewegungen hinsichtlich unterschiedlicher Fragestellungen ausgewertet und dabei ebenso der Joy of Use des Nutzers miteinbezogen. Grundsätzlich wird jedes Video vor der Analyse entsprechend der gewünschten Visualisierungstechnik bearbeitet und exportiert, sodass diese den Projektverantwortlichen zeitnah zur Verfügung stehen.

Für weitere Informationen zum Thema Eye-Tracking für Businessanwendungen und Evaluationen zur ergonomischen Verbesserungen von Arbeitsplätzen in der Industrie sprechen Sie uns gerne an: ux@akquinet.de

Quellen:

Byrne, Michael D.; Anderson, John R.; Douglass, Scott; u. a. (1999): Eye tracking the visual search of click-down menus. In: Proceedings of the SIGCHI conference on Human factors in computing systems the CHI is the limit – CHI ’99. S. 402–409.

Ehmke, Claudia; Wilson, Stephanie (2007): Identifying web usability problems from eye-tracking data. In: HCI 2007. the British Computer Society S. 119–128.

Goldberg, Joseph H.; Kotval, Xerxes P. (1999): Computer interface evaluation using eye movements: Methods and constructs. In: International Journal of Industrial Ergonomics. 24 (6), S. 631–645.

Holmqvist, Kenneth; Nyström, Marcus; Andersson, Richard; u. a. (2011): Eye Tracking: A Comprehensive Guide to Methods and Measures. Oxford, New York: Oxford University Press.

Jacob, Robert J. K.; Karn, Keith S. (2003): Eye Tracking in Human-Computer Interaction and Usability Research: Ready to Deliver the Promises. In: Mind. 2 (3), S. 573–605.

Just, Marcel Adam; Carpenter, Patricia A. (1980): A theory of reading: From eye fixations to comprehension. In: Psychological Review. 87 (4), S. 329–354.

Olmsted-Hawala, Erica; Holland, Temika; Quach, Victor (2014): Usability Testing. In: Bergstorm, Jennifer Romano; Schall, Andrew Jonathan (Hrsg.) Eye Tracking in User Experience Design. Waltham: Morgan Kaufmann S. 49–80.

Sharafi, Zohreh; Soh, Zéphyrin; Guéhéneuc, Yann Gael (2015): A systematic literature review on the usage of eye-tracking in software engineering. In: Information and Software Technology. Elsevier B.V. 67 , S. 79–107.