de en
Zurück

Online Magazine

Eine KI verbessert das Tierwohl

Wenn ein Schwein in einer tiefen Tonlage grunzt – ist es dann glücklich oder traurig? Elodie Floriane Mandel-Briefer von der Universität Kopenhagen hat einen Algorithmus entwickelt, der den emotionalen Zustand von Schweinen anhand ihrer Laute erkennt. Ein Gespräch darüber, wie dieser Algorithmus den Agrarsektor verändern und wo er sonst noch angewendet werden könnte.

 

MIT ELODIE FLORIANE MANDEL-BRIEFER
SPRACH ELIANE EISENRING

Frau Briefer, Sie haben einen Algorithmus entwickelt, der die Emotionen von Schweinen anhand ihrer Laute erkennt. Heisst das, Sie wissen, ob ein Schwein glücklich oder traurig ist?
Nicht ganz – wie die meisten Menschen, die sich mit Emotionen bei Tieren beschäftigen, teilen wir sie in einem sogenannten zweidimensionalen Framework ein. Anstatt zu sagen, dass das Schwein glücklich, traurig oder deprimiert ist, sagen wir einfach, dass es entweder positive oder negative Emotionen erlebt – das ist die Valenzdimension – und dass die Emotion intensiv oder nicht intensiv ist – das ist die Arousal-Dimension. Mit Hilfe von Kontexten, in denen die Laute (Rufe, wie wir sagen) aufgenommen wurden und die wir als positiv oder negativ vordefiniert haben, können wir diese entsprechend kategorisieren. Insgesamt hatten wir 19 verschiedene Kontextkategorien: Kuscheln und die Zeit vor oder nach dem Säugen wurden beispielsweise als positiv eingestuft; Kastration, Isolation und Schlachtung offensichtlich als negativ.

Anstatt zu sagen, dass das Schwein glücklich, traurig oder deprimiert ist, sagen wir, dass es entweder positive oder negative Emotionen erlebt und dass die Emotion intensiv oder nicht intensiv ist.

Warum Schweine? Gibt es einen bestimmten Grund, warum Sie dieses Tier ausgewählt haben?
Ich persönlich habe damit begonnen, mich mit Schweinen zu beschäftigen, weil ich mich dafür interessiere, wie sich der stimmliche Ausdruck von Gefühlen im Laufe der Zeit entwickelt hat und welche Auswirkungen die Domestizierung hatte. Deshalb habe ich für ein vorangegangenes Projekt Hauspferde und Schweine ausgewählt: Beide haben sehr eng verwandte wilde Vorfahren – Perzewalski-Pferde und Wildschweine – die ich zum Vergleich heranziehen konnte.

Dann setzte ich mich mit anderen Teams in Verbindung, die ebenfalls an Schweinen arbeiteten, und wir erkannten das Potenzial dieser Tiere: Erstens produzieren sie sehr viele Laute und zweitens sind sie sehr kommerziell – sie werden weltweit als Nutztiere eingesetzt.

Um den Algorithmus zu trainieren, haben Sie über 7000 Tonaufnahmen von 411 Schweinen verwendet. Welche Faktoren waren bei der Datenerhebung ausschlaggebend, um letztendlich eine zuverlässige Datengrundlage zu erhalten?
Um eine so grosse Datenbank zu erhalten, haben wir mit einer Reihe von Teams aus verschiedenen EU-Ländern zusammengearbeitet. Glücklicherweise gab es viele Teams, die sich mit Schweinen und ihrem stimmlichen Ausdruck von Emotionen beschäftigten, so dass wir es schafften, gemeinsam das Projekt SoundWel aufzubauen. Zuerst haben wir alle Aufnahmen gesammelt, die wir bereits hatten. Von diesen kennen wir den Kontext der Rufproduktion und meistens auch das Verhalten und die Herzfrequenz der Tiere – wir haben also eine ziemlich gute Vorstellung davon, ob der Ruf positive oder negative Emotionen anzeigt.

In einem zweiten Schritt haben wir überprüft, welche Szenarien im Leben der Schweine uns fehlen. Wir hatten zum Beispiel nicht viele Daten von positiven Situationen, also hat das Team aus Norwegen einige beigesteuert. Das Team aus Frankreich ging zu Schlachthöfen, um Daten zu sammeln. Natürlich fehlt uns noch einiges, wie z. B. der Transport, aber die meisten Situationen, denen Schweine im Laufe ihres Lebens begegnen, haben wir erfasst.

Was haben Sie bei der Analyse der Daten herausgefunden?
Was wir schon vorher wussten und folglich auch in unserer Datenbank sehen konnten, ist, dass in negativen Situationen meist hohe Rufe (Schreien, Quieken) zu hören sind. Tiefe Rufe kamen sowohl in positiven als auch in negativen Situationen vor. Doch als wir uns die Daten genauer angeschaut haben, indem wir verschiedene Parameter extrahierten, haben wir gesehen, dass sich die Merkmale der niederfrequenten Rufe je nach Situation ändern – in positiven Situationen sind sie zum Beispiel kürzer.

Wie genau sah Ihre Lösung für den Algorithmus aus?
Wir haben verschiedene automatische Methoden ausprobiert, eine, die auf den von uns extrahierten Merkmalen – Dauer, Amplitudenmodulationsrate, Frequenz und Entropie – basiert, und eine eher traditionelle Methode, die Diskriminante Funktionsanalyse genannt wird. Letztere konnte auf der Grundlage dieser vier Parameter 62 Prozent der Rufe der richtigen emotionalen Valenz (d. h. positiv oder negativ) zuordnen.

Eine Ingenieurin, die einige Monate in meiner Gruppe gearbeitet hat, Ciara Sypherd, entwickelte eine weitere Methode – einen Machine Learning Algorithmus. Sie versuchte zuerst, die extrahierten Parameter zu verwenden, und begann dann, den Algorithmus auf den Bildern der Töne zu trainieren, den so genannten Spektrogrammen, die die Frequenz im Zeitverlauf visualisieren – mit der Amplitude als Farbcode. Bei diesem Ansatz arbeitet der Algorithmus mit Bilderkennung. Nach dem Training konnte der Algorithmus mit 92 prozentiger Genauigkeit sagen, ob ein Ruf in einem positiven oder negativen Kontext erzeugt wurde, und mit 82 prozentiger Genauigkeit konnte er den exakten Kontext bestimmen.

Nach dem Training konnte der Algorithmus mit 92 prozentiger Genauigkeit sagen, ob ein Ruf in einem positiven oder negativen Kontext erzeugt wurde, und mit 82 prozentiger Genauigkeit konnte er den exakten Kontext bestimmen.

Diese Zahlen sind beeindruckend! Wenn wir einen Schritt weitergehen: Wie kann Ihr Algorithmus in der Praxis angewendet werden?
Im Grunde möchten wir ein Tool entwickeln, das über ein Mikrofon in ein bestehendes System integriert werden kann, eine Gruppe von Schweinen aufnimmt, die Laute extrahiert und sie nach ihrer Wertigkeit klassifiziert. Das Tool würde den Landwirtinnen und Landwirten mitteilen, wie viele der Rufe über einen Zeitraum von z. B. 24 Stunden positiv und wie viele negativ waren. So könnten sie sehen, wie sich der emotionale Zustand ihrer Schweine verändert; wenn es viele negative Rufe aufzeichnet, sollten sie vielleicht mal schauen, was los ist – die Schweine könnten sich unwohl fühlen oder zu häufig kämpfen. Wenn die Landwirtinnen und Landwirte die Situation der Schweine verbessern wollen, können sie überprüfen, ob nach einer Korrekturmassnahme mehr positive Rufe zu verzeichnen sind.

Der Endzweck Ihres Tools wäre also die Verbesserung des Tierwohls?
Ja. Das Wohlergehen der Tiere beruht sowohl auf ihrer körperlichen als auch auf ihrer geistigen Gesundheit. Leider basieren die bestehenden Systeme, die in landwirtschaftlichen Betrieben zur Überwachung der Tiere in Echtzeit eingesetzt werden, hauptsächlich auf der körperlichen Verfassung. Es ist also derzeit nicht möglich, Landwirtinnen und Landwirten Echtzeit-Informationen über die psychische Gesundheit der Tiere zu liefern – die im Grunde die Hälfte von deren Wohlergehen ausmacht.

Es ist derzeit nicht möglich, Landwirtinnen und Landwirten Echtzeit-Informationen über die psychische Gesundheit der Tiere zu liefern – die im Grunde die Hälfte von deren Wohlergehen ausmacht.

Könnte Ihr System dazu beitragen, Grundregeln für das psychische Wohlergehen der Tiere aufzustellen?
Dafür ist wahrscheinlich noch ein paar Jahre Forschung nötig, aber im Moment ist das die Idee: zunächst Daten über den emotionalen Zustand der Schweine zu generieren und dann auf dieser Grundlage definieren zu können, welcher Prozentsatz an negativen Emotionen nicht überschritten werden darf und welcher Prozentsatz an positiven Emotionen mindestens erreicht werden muss.

Und über das Tierwohl hinaus? Wie wird Ihre Lösung den Zustand des Agrarsektors verbessern? Was sind die Vorteile für die Landwirtinnen und Landwirte?
Nun, in Bezug auf die Produktivität wird sie wahrscheinlich nicht helfen – um diese zu verbessern, braucht man in der Regel überfüllte Räume und kommerzielle Bedingungen, und dabei sind Tiere vielen verschiedenen Verfahren ausgesetzt, die ihrem Wohlergehen nicht zuträglich sind. Wir wissen, dass das Wohlergehen der Tiere mit der Fleischqualität zusammenhängt, das wäre also ein direkter Vorteil für die Landwirtinnen und Landwirte. Ein weiterer wäre die Möglichkeit, sich von anderen Produzenten zu unterscheiden: Ein Biobetrieb könnte unser System nutzen, um den Verbraucherinnen und Verbrauchern zu zeigen, dass er Schweine züchtet, die sowohl geistig als auch körperlich ein richtig gutes Leben hatten. Vielleicht werden sie irgendwann sogar in der Lage sein, ihre Produkte auf diese Weise zu kennzeichnen.

Ein Biobetrieb könnte unser System nutzen, um den Verbraucherinnen und Verbrauchern zu zeigen, dass er Schweine züchtet, die sowohl geistig als auch körperlich ein richtig gutes Leben hatten.

Wie ist das bisherige Feedback der Landwirtinnen und Landwirte? Wie offen sind sie für die Nutzung eines solchen Tools?
Wir sind noch nicht so weit, dass wir den Landwirtinnen und Landwirten die Anwendung zeigen können, aber nach dem, was ich im Internet gelesen habe, sind sowohl sie als auch die Veterinärinnen und Veterinäre sehr begeistert davon. Und das Interesse an unserer Lösung von Seiten der Unternehmen, die das Projekt finanzieren oder ihre eigenen Anwendungen auf der Grundlage von Klanganalyse entwickeln wollen, ist enorm.

Apropos: Könnte Ihr Algorithmus die Grundlage für weitere Projekte sein, d.h. auch zur Erkennung von Emotionen anderer Tiere eingesetzt werden?
Ja, ich bin mir ziemlich sicher, dass er auch für andere Tierarten trainiert werden kann, wenn es eine genug grosse Datenbank mit gekennzeichneten Lauten gibt. Die meisten anderen Nutztiere, mit Ausnahme von Hühnern, produzieren nicht so viele Laute wie Schweine. Andererseits könnte man auch nur die Anzahl Rufe anschauen, ohne sie zu klassifizieren, denn wenn weniger Rufe erzeugt werden, sagt das auch etwas über den emotionalen Zustand des Tieres aus.

Kollegen von mir werden demnächst etwas ganz Ähnliches über Hühner veröffentlichen. Und einer der Autoren unserer Arbeit arbeitet jetzt in Norwegen an einem Machine Learning Algorithmus zur Erkennung der Laute von Kabeljauen.

Kabeljaue?
Ja (lacht), Sie wären überrascht, Fische produzieren tatsächlich Laute. Die müssen jedoch mit anderen Instrumenten gemessen werden.

Kennen Sie weitere KI-Projekte, die uns helfen sollen, andere besser zu verstehen – nicht nur Tiere, sondern auch Menschen, die sich nicht so ausdrücken können wie Sie und ich?
Ja, ich habe tatsächlich Kollegen, die sich mit dem menschlichen Ausdruck von Emotionen beschäftigen. Wenn sie einen biologischen Hintergrund haben, verwenden sie genau die gleiche Technik wie wir. Ein Projekt untersucht zum Beispiel nonverbale Äusserungen wie Schreie – man kann z. B. zwischen Freuden- und Schmerzensschreien unterscheiden, und sie auf genau dieselbe Weise vergleichen, wie wir es mit Tierlauten tun. Das könnte also durchaus zu weiteren Anwendungsmöglichkeiten führen.

Zur Person

Elodie Floriane Mandel-Briefer (*1981) ist seit 2019 ausserordentliche Professorin an der naturwissenschaftlichen Fakultät der Universität Kopenhagen, wo sie die Gruppe für Verhaltensökologie (Behavioural Ecology) leitet. Vor ihrer Zeit in Kopenhagen hat Briefer sechs Jahre lang an der ETH Zürich geforscht. Ihre Hauptforschungsinteressen sind Kognition und stimmliche Kommunikation bei Säugetieren und Vögeln.

NOCH MEHR SPANNENDE GESPRÄCHE RUND UM AUTOMATION, DATEN UND KI:

Im Gespräch mit
Nachhaltigkeit KI in der Forschung Machine Learning KI

KI verscheucht Wölfe
Im Gespräch mit
AI for good KI in der Forschung Machine Learning

KI überwacht bewaffnete Konflikte
Im Gespräch mit
Nachhaltigkeit AI for good KI in der Forschung KI

KI & das Klima
Gelesen