Nervenstark!

Kenne, was dich schwach macht. Konzentriere dich auf das, was dich stark macht!

Facial Action Coding


Facial Action Coding System

Das 1978 zuerst publizierte Facial Action Coding System (FACS, engl. für "Gesichtsbewegungs-Kodierungssystem")[1] ist ein unter Psychologen weltweit verbreitetes Kodierungsverfahren zur Beschreibung von Gesichtsausdrücken.[2]

Geschichte

Die erste Version des Systems wurde 1978[3] von Paul Ekman und Wallace Friesen entwickelt. Ihre wichtigste Grundlage war das Buch Man’s Face and Mimic [bzw. Facial] Language (Das menschliche Gesicht und seine mimische Sprache; Originaltitel: Människans ansikte och mimiska språket. 1969, Malmö: Studentlitteratur) des schwedischen Anatomen Carl-Herman Hjortsjö von der Universität Lund. Später wurde das System auf andere Arten übertragen, so zum Beispiel auf Schimpansen, Rhesusaffen, Gibbons, Orangutans, Hunde[4] und Pferde[5]

Anwendungsgebiete

Das Hauptanwendungsgebiet ist die Emotionspsychologie. Mit dessen Hilfe kann man beispielsweise ein echtes von einem gekünstelten Lächeln unterscheiden. FACS ist somit eine Technik zur Mimik- bzw. Emotionserkennung.

Das Unter-Kontrolle-Bringen der an einem Gesichtsausdruck beteiligten Muskeln benötigt eine – wenn auch kurze – Zeitspanne. Während dieser Zeitspanne ist das zugrunde liegende Gefühl in einem vollständigen Gesichtsausdruck korrekt dargestellt. Danach wird der Ausdruck durch den Gesichtsausdruck ersetzt, den die Person darstellen möchte. Dieser Ablauf wird auf deutsch als Mikromimik bezeichnet.[6]

Eine anerkannte FACS-Kodierung muss üblicherweise von zwei unabhängigen, zertifizierten Kodierern erfolgen. Teil der Zertifizierung ist die Fähigkeit, die Einzelelemente des Systems mit dem eigenen Gesicht produzieren zu können.

Zudem wird FACS immer häufiger als Basis für die Computeranimation von Gesichtsausdrücken eingesetzt, etwa in Filmen wie Beowulf, Benjamin Button oder Avatar.

Aufbau der FACS-Kodierung

Das FACS ordnet nahezu jeder sichtbaren Bewegung der mimischen Muskulatur eine „Bewegungseinheit“ (engl. Action Unit, AU) zu. Hierbei handelt es sich um Einheiten, die eine einzelne oder mehrere Muskelbewegungen zusammenfassen. Mit dieser Klassifikation ist es möglich, Gesichtsausdrücke schriftlich zu notieren – vergleichbar der Notation von verbalen Ausdrücken mit geschriebener Sprache. Im FACS gibt es Paul Ekman zufolge insgesamt 44 solcher Einheiten, das Obergesicht umfasst 12, das Untergesicht 32 AUs. Die AUs im Untergesicht werden hinsichtlich der Richtung der Bewegungen unterteilt. So lassen sich horizontale, vertikale, schräge, kreisförmige und gemischte Aktionen unterscheiden. Die Kombinationen solcher Action Units werden bestimmten Emotionen zugeordnet.

Auswahl aus der Liste der Bewegungseinheiten (Action Units)

1 Heben der Augenbrauen innen
2 Heben der Augenbrauen außen
4 Zusammenziehen der Augenbrauen
5 Heben des oberen Augenlides
6 Zusammenziehen des äußeren Teils des Ringmuskels um die Augen (es entstehen dabei meist Krähenfüßchen)
7 Zusammenziehen des inneren Teils des Ringmuskels um die Augen (Anspannen des unteren eventuell auch des oberen Augenlids)
9 Rümpfen der Nase
10 Anheben der oberen Lippe durch den Musculus levator labii superioris
11 Äußeren Teil der Oberlippe schräg nach oben ziehen
12 Anheben der Mundwinkel wie beim Lächeln oder Lachen (siehe auch Lachmuskulatur)
13 Spitzes Anheben der Mundwinkel ("Chaplin-Smile", historisch als hysterisches Lächeln bezeichnet)
14 Einziehen der Mundwinkel Trompeter-Muskel
15 Herabziehen der Mundwinkel
16 Nach unten Ziehen der Unterlippe
17 Hinaufschieben des Kinns
18 Kussmund
22 Lippen trichterförmig nach außen wölben
23 Spannen der Lippen, diese werden schmaler, nach innen gerollt und zu den Zähnen abgeflacht
24 Zusammenpressen der Lippen (Musculus orbicularis oris)
25 Öffnen der Lippen
26 Öffnen des Mundes durch Entspannung der Unterkiefermuskulatur
27 weites Öffnen des Mundes
28 Lippen zwischen die Zähne saugen
43 Absenken des oberen Augenlides (43E = Augen geschlossen)
45 Blinzeln (mit beiden Augen)
46 Zwinkern (mit einem Auge)[7]

Weitere Action Units beschreiben die möglichen Kopf- und Augenbewegungen.

Kodierung der Ausprägungsstärke

Die Stärke einer Bewegung wird im FACS durch einen fünfstufigen Rangwert ausgedrückt. Für jede AU wird im Handbuch explizit eine Zuordnungsregel angegeben.

Meistens gilt:

Stärke A: an der Wahrnehmungsgrenze oder angedeutet
Stärke B: gut sichtbar
Stärke C: deutlich sichtbar
Stärke D: ausgeprägt
Stärke E: im physiologischen Höchstmaß (individuell)

Die Ausprägungsstärke ist nicht zu verwechseln mit der Ausdrucksstärke, da die Wirkung eines Ausdrucks nicht allein von der Stärke der Muskelbewegung abhängt.

Basisemotionen

Paul Ekman zufolge existieren sieben Basisemotionen. Diese sind: Wut, Freude, Trauer, Ekel, Verachtung, Angst und Überraschung. Diese Emotionen werden kulturübergreifend verstanden, denn ihre dazugehörigen Gesichtsausdrücke sind universal.[8]

Im Folgenden eine Tabelle zu den sieben Basisemotionen nach Paul Ekman und den daran beteiligten Action Units.

Basisemotion Action Units (AU)

Wut 4 – Zusammenziehen der Augenbrauen

5 – Heben des oberen Augenlides

7 – angespanntes unteres Augenlid

23 – aufeinander gepresste Lippen


Freude 6 – angehobene Wangen

12 – Anheben der Mundwinkel


Trauer 1 – Heben der inneren Augenbraue

4 – Zusammenziehen der Augenbrauen

15 – Herabziehen der Mundwinkel


Ekel 9 – Rümpfen der Nase

15 – Herabziehen der Mundwinkel

16 – nach unten gezogene Unterlippe


Verachtung Auf einer Seite des Gesichts:

12 – Anheben der Mundwinkel

14 – Einziehen der Mundwinkel


Angst 1 – Heben der inneren Augenbraue

2 – Heben der äußeren Augenbraue

(= Hoch gezogene Augenbrauen)

4 – Zusammenziehen der Augenbrauen

5 – Heben des oberen Augenlides (weit geöffnete Augen)

7 – angespanntes unteres Augenlid

20 – gespannte Lippen

26 – (leicht) geöffneter Mund


Überraschung 1 – Heben der inneren Augenbraue

2 – Heben der äußeren Augenbraue

(= Hoch gezogene Augenbrauen)

5 – Heben des oberen Augenlides (weit geöffnete Augen)

26 – (leicht) geöffneter Mund


EmFACS

Das EmFACS steht für Emotion FACS und enthält nur jene Bewegungseinheiten, die zur Kodierung von häufigen emotionalen Gesichtsausdrücken (Freude, Trauer, Wut, Angst, Ekel und Überraschung) nötig sind.[9] Das System wurde von Paul Ekman und W. V. Friesen in den 1980er Jahren an der University of California San Francisco entwickelt.

ChimpFACS

ChimpFACS ist eine Anpassung zur Analyse des Gesichtsausdrucks von Schimpansen. Es ermöglicht einen direkten strukturellen Vergleich der Gesichtsausdrücke von Schimpansen und Menschen.[10]

DogFACS

Im Jahr 2013 wurde FACS auf Hunde (englisch: dog) übertragen.[4] In der Studie, für die DogFACS entwickelt wurde, konnte gezeigt werden, dass Tierheimhunde, die AU101, das Hochziehen der Augenbraue, häufiger zeigten als andere, eher wieder ein Zuhause fanden als andere, also von potentiellen Interessenten bevorzugt wurden.

F-M FACS 3.0

Das F-M-Pionier-Gesichtsaktions-Kodierungssystem 3.0 (F-M FACS 3.0)[11] wurde im Jahr 2018 von Armindo Freitas-Magalhães erstellt und präsentiert 4.000 Segmente in 4K, mit 3D-Technologie, 360 3D und automatische und Zeiterkennung (FaceReader 7.1). Der F-M FACS 3.0 verfügt neben der funktionalen und strukturellen Nomenklatur über 8 Action Units (AUs) und 22 Tongue Movements (TMs).
Relevanz[8]

Auch sogenannte micro expressions, d. h. Mikroausdrücke, können mithilfe des FACS identifiziert werden. Mikroausdrücke sind kurze, schnelle Gesichtsbewegungen mit einer Dauer von einem Bruchteil einer Sekunde (circa 1/12 bis 1/5 Sekunde). Sie treten plötzlich auf und verschwinden genauso plötzlich wieder. Daher sind sie in Zeitlupe gut zu erkennen. Außerdem sind sie i. d. R. leicht asymmetrisch. Mikroausdrücke geben die wahren Gefühle preis, lassen sich nicht verstecken und sind kaum zu manipulieren. Mithilfe von FACS lassen sich demnach nicht nur mimische Ausdrücke erkennen, sondern auch die dazugehörige Emotion. Aus diesem Grund wird die Methode des FACS auch von Institution wie der Polizei, dem FBI oder der CIA verwendet, um Kriminelle zu überführen.

Literatur

Ute Eberle: Die Weltsprache der 43 Muskeln. Forscher entschlüsseln das Vokabular unserer Mimik. In: Bild der Wissenschaft. Januar 2004, S. 24–31.


Einzelnachweise

1) Paul Ekman, Wallace V. Friesen: Facial Action Coding System: A Technique for the Measurement of Facial Movement. Consulting Psychologists Press, Palo Alto, Calif. 1978, OCLC 605256401
2) Description of Facial Action Coding System (FACS). (Memento vom 6. Juni 2008 im Internet Archive)
3) Paul Ekman Group. Abgerufen am 14. Dezember 2017 (amerikanisches Englisch).
4) Bridget M. Waller, Kate Peirce, Cátia C. Caeiro, Linda Scheider, Anne M. Burrows, Sandra McCune, Juliane Kaminski, Claire Wade: Paedomorphic Facial Expressions Give Dogs a Selective Advantage. In: PLoS ONE. 8, 2013, S. e82686, doi:10.1371/journal.pone.0082686.
5) Jen Wathan, Anne M. Burrows u. a.: EquiFACS: The Equine Facial Action Coding System. In: PLOS ONE. 10, 2015, S. e0131738, doi:10.1371/journal.pone.0131738.
6) Robert H. Frank: Die Strategie der Emotionen. Oldenbourg Wissenschaftsverlag, München 1992, ISBN 3-486-55837-4, S. 110–111.
7) P. Ekman, W. Friesen, J. Hager: Facial Action Coding System. The Manual on CD Rom. Network Information Research Corporation, Salt Lake City 2002.
8) Paul Ekman: Gefühle lesen : wie Sie Emotionen erkennen und richtig interpretieren. 2. Auflage. Spektrum, Akad. Verlag, Heidelberg 2010, ISBN 978-3-8274-2568-3.
9) Emotion and Facial Expression. (Memento vom 24. Juli 2010 im Internet Archive) (englisch)
10) L. A. Parr, B. M. Waller, S. J. Vick, K. A. Bard: Classifying chimpanzee facial expressions using muscle action. In: Emotion (Washington, D.C.). Band 7, Nummer 1, Februar 2007, S. 172–181, doi:10.1037/1528-3542.7.1.172. PMID 17352572, PMC 2826116 (freier Volltext).
11) Gesichtsaktions-Kodierungssystem 3.0: Handbuch der wissenschaftlichen Kodierung des menschlichen Gesichts. Porto: FEELab Wissenschaftsbücher. ISBN 978-989-8766-87-8.

(Quelle; https://de.wikipedia.org/wiki/Facial_Action_Coding_System abgerufen am 22.06.2019)


Facial EMG: Muscles Don’t Lie?
By Roger Dooley

We talk a lot about EEG measurements for neuromarketing purposes, and occasionally fMRI. We’ve also discussed facial coding, in which expert viewers analyze fleeting facial expressions to detect emotional states. A technique related to facial coding but with some distinct differences is facial EMG. This technology uses electromyography to measure the activity of two primary facial muscles.

How Facial EMG Works

Two major muscle groups are monitored with current facial EMG technology: the corrugator supercilli and zygomaticus major muscle groups. The former is associated with frowning, the latter with smiling. Electrodes are attached to the face to measure the electrical impulses associated with movements of these muscles. The data captured from the electrodes is then processed and analyzed to judge changes in emotional state.

Facial EMG Pros & Cons

Compared to visual observation of fleeting expressions, facial EMG offers the promise of accurate and automated recording of muscle activity. Proponents of facial EMG say it is more precise and sensitive, and that it is capable of measuring even weak emotional states. Even when subjects are instructed to avoid expressing emotion, responses can still be captured with EMG.

Critics of EMG focus on two main factors. First, wiring up a subject with the electrodes is intrusive and may inhibit normal activities and responses. Second, the full Facial Action Coding System (FACS) recognizes 43 facial muscle groups. Facial coding practitioner Dan Hill of Sensory Logic thinks that focusing on just two of those groups can’t be as effective as more comprehensive analysis.

Facial EMG Companies

Firms offering facial EMG services for marketing, advertising, and product evaluation include MSW Research and Gallup & Robinson.

The usual neuromarketing caveats apply here, too, of course. As is the case for other neuromarketing technologies, facial EMG firms have not presented high quality research proving that facial EMG measurements can predict consumer buying behavior. The implicit assumption is that if emotional states can be measured (debatable in itself, as noted above), these reactions can be interpreted to choose or optimize advertising and products.

(Source: https://www.neurosciencemarketing.com/blog/articles/facial-emg.htm June 22nd, 2019)