**Dies ist eine alte Version des Dokuments!** ----
====== Mood Markup Language ====== ---- ===== Zusammenfassung ===== ---- Durch die zunehmende Entwicklung des Internet der Dinge(([[http://de.wikipedia.org/wiki/Internet_der_Dinge]])) (//Internet of Things, IoT//) besteht die Möglichkeit bzw. die Notwendigkeit das eingebundene Geräte (//Devices//), Sensoren (//Sensors//) unabhängig vom Menschen miteinander kommunizieren können und müssen. Diese Kommunikation (//Physical Computing//(([[http://de.wikipedia.org/wiki/Physical_Computing]])) ) bedarf anderer Schnittstellen als die klassische Mensch-Maschine-Interaktion die in der Regel mit visuellen und haptischen Methoden (//Visual Computing//(([[http://de.wikipedia.org/wiki/Visual_Computing#Bereich_Computervision_und_Mensch-Maschine-Interaktion]])) ) realisiert wird. In zunehmenden Maße werden in der aktuellen Kommunikation Emotionen (//Emotions//) und Stimmungen (//Moods//) wichtig. Stimmungen haben einen nicht zu unterschätzenden Einfluss auf Verhaltensweisen im Internet der Dinge da sie schon im Anfang (unbewusste) Entscheidungen steuern können. Internetkonzerne wie Apple, Google, Microsoft und andere haben erkannt dass Kaufentscheidungen schon vor rationalen Aspekten von Stimmungen vorselektiert und bestimmt werden. Liest man die entsprechenden Patente (siehe unten) lässt sich gut erkennen worauf dabei abgezielt wird. Diese Entwicklung scheint logisch - hat aber weit mehr Potential um nur als Motivator für positive Kaufentscheidungen zu dienen. ==== Gründe für eine MML ==== Aus der oben genannten Erkenntnis und daraus resultierenden Notwendigkeit entstand die Idee, im Rahmen des Semesterprojekts 'Everyware' von Prof. Manfred Kraft im Studiengang MM/VR an der Burg Giebichenstein Kunsthochschule Halle eine Markup Language(([[http://de.wikipedia.org/wiki/Markup_language]])) (ML) zu entwickeln die Stimmungen (//Moods//) austauschen und interpretieren kann. Diese Mood Markup Language (MML) sollte es allen im Projekt entwickelten Produkten erlauben untereinander mit 'Moods' zu kommunizieren und diese Stimmungen auch auf ihre produktspezifische Weise auszudrücken. Zusätzlich sollte es mit der MML möglich sein, neben Maschine-zu-Maschine oder Mensch-zu-Maschine Kommunikation, auch andere Arten des Datenaustauschs wie z.B. Pflanze-zu-Maschine Kommunikation zu unterstützen. Im Gegensatz zu darstellenden Seitenbeschreibungssprachen ist die MML als prozedurale Auszeichnungssprache gedacht. Diese sogenannten Moods sind nicht wirklich Stimmungen sondern Mini-Programme (Skripte), Templates, Playlisten welche die Funktionalität bereitstellen um Moods mit Hardware zu erzeugen bzw. unsere Stimmung zu unterstützen oder zu beeinflussen. Interessierte Entwickler sind eingeladen ihre Entwicklungen zu teilen und zugänglich zu machen um die Liste unterstützter Hardware zu vergrößern um so auch das Interesse an dieser Markup Language zu wecken. ==== Grundlagen ==== Generell unterscheidet man in der Psychologie zwischen positiven und negativen Stimmungen. Stimmungen können über längere Zeiträume erlebt werden und bezeichnen eine körperlich-psychische Gesamtverfassung (([[http://de.wikipedia.org/wiki/Stimmung_(Psychologie)|http://de.wikipedia.org/wiki/Stimmung_(Psychologie)]] )). Stimmungen werden von exogenen sowie endogenen Faktoren beeinflusst, können sich überlagern und Erfahrungen 'einfärben'. Stimmungen sind in ihrer Erscheinung eher als diffus zu bezeichnen. Darüber hinaus sind Stimmungen zeitlich länger erlebbar und situationsbedingten Schwankungen unterworfen. Durch ihre Komplexität entsprechen Stimmungen eher einem ganzheitlichen Modell(([[http://de.wikipedia.org/wiki/Ganzheitlich]])) als durch ein reduktionistisches Modell(([[http://de.wikipedia.org/wiki/Reduktionistisch]])) erklärbar zu sein. Moods (Stimmungen) werden aus endogenen(([[http://de.wikipedia.org/wiki/Endogen]])) und exogenen(([[http://de.wikipedia.org/wiki/Exogen]])) Einflüssen generiert. Einflüsse können bestehende Moods 'einfärben' und ab einer definierten Quantität überlagern und so schließlich eine neue Stimmung erzeugen. Mehrere Moods können auch zu neuen Stimmungen kombiniert werden. Beispiele für exogene Einflüsse sind: * Wetter * Temperatur * Verkehr * Medien * Werbung * Umwelt * Nachrichten Beispiele für endogene Einflüsse (körpereigene Daten): * Blutdruck * Puls * Blutzucker * Körpertemperatur * Bewegungsdaten. Diese Faktoren können objektiven(([[http://de.wikipedia.org/wiki/Objektivit%C3%A4t]])) wie subjektiven(([[http://de.wikipedia.org/wiki/Subjektiv]])) Charakter haben, z.B. Schlafauswertung über Sensoren würde objektive Faktoren bereitstellen aber das Gefühl müde zu sein wäre ein subjektiver Faktor des selben Einflusses (Schlaf) auf eine Stimmung. Subjektive Faktoren können aber durchaus schon als Mood gelten (z.B. müde, verliebt, traurig) Moods beschreiben Stimmungsmuster die vom Anwender subjektiv interpretiert und angewendet werden können. Beispielsweise wird jeder Anwender mit der Stimmung 'Abenteuer' etwas anderes assoziieren da individuelle Erfahrungen mit dem Begriff verbunden sind. ==== Herausforderungen ==== Daraus ergeben sich unzählige mögliche Varianten, die in eine Struktur gebracht werden müssen um sinnvoll in einer Markup Language zu funktionieren. Alle verfügbaren Stimmungen sollten, je nach im Netzwerk verfügbarer Hardware, in Aktionen übersetzt werden können. Im Umkehrschluss sollte die komplette Liste von Moods in der Datenbank von der Hardware bei Bedarf über das Netzwerk geordert werden. Wichtig für die weitere Entwicklung sollte eine vertretbare Abwärtskompatibilität sein um allen Entwicklern die Möglichkeit zu geben ihre Anwendungen anzupassen. ---- ===== MML - Mood Markup Language ===== ---- ==== Einführung ==== Die MML ist ein Kommunikationsprotokoll was darauf ausgelegt Stimmungen auf digitale Weise zu transportieren und auf bzw. mit Endgeräten mit Internetverbindung zu erzeugen. Das Protokoll ist nicht zwingend auf Effizienz ausgerichtet' es soll vielmehr bestehende oder neue Komponenten um Emotionalität erweitern. Mit der MML geht es nicht darum die technische Welt intelligenter zu machen sondern vielfältiger. Im Idealfall können Moods unterschiedlichste Hardware, wie z.B. LEDs, Motoren, oder den heimischen Mediaserver ansprechen. Die breite Verfügbarkeit von Sensoren und Schnittstellen zu Internetdiensten ermöglicht durch Kombinationen neue Möglichkeiten um Stimmungen in heterogenen Mensch-Maschine-Konfigurationen abzubilden. Selbstverständlich besteht die Möglichkeit mittels Smartphones und Tablets das System zu konfigurieren. Die Möglichkeit mit Stimmungen umzugehen erweitert bestehende Technologien um ein Vielfaches. Die MML hat auch das Potential unser Leben zu bereichern, Endgeräte nicht nur intelligenter sondern auch emotionaler werden zu lassen. Die Erweiterung bestehender und neuer Technologien um die Möglichkeit Stimmungen zu interpretieren, um komplexe Situationen zu beschreiben, wird dem Internet der Dinge neue Impulse geben. Durch die Vielzahl der verfügbaren Technologien die potentiell unterstützt werden können, ergibt sich eine Bandbreite darstellbarer Stimmungen die vergleichbar mit der Einführung der RGB-Farbpalette aus der Anfangszeit im Visual Computing ist. Theoretisch lassen sich durch Kombinationen von verfügbaren Technologien und bekannten Stimmungen neue Moods erzeugen die uns bisher unbekannt sind oder von einem einzelnen Menschen gar nicht erfahrbar sind. So ist es naheliegend dass auch virtuelle 3D-Umgebungen durch Stimmungen erweitert werden können - oder Virtual- und Augmented-Reality Anwendungen homogener erfahrbar werden. Die Mood Markup Language könnte auch anstelle von Geometriedaten in Virtual-Reality Umgebungen eingesetzt werden um komplett neue Erfahrungswelten zu schaffen. ==== Paradigma ==== Stimmungen sind Teil unserer Wahrnehmungskette (([[http://de.wikipedia.org/wiki/Wahrnehmung]])) (([[http://de.wikipedia.org/wiki/Wahrnehmung#mediaviewer/Datei:Wahrnehmungskette.svg]])): **//Reiz, Transduktion, Verarbeitung, Wahrnehmung, Wiedererkennung, Handeln//** Die Mood Markup Language sollte in mehrere Teilbereiche untergliedert werden die folgendermaßen beschrieben werden könnten und Deckungsgleich mit der Wahrnehmungskette sind: **//Akquisition, Perzeption, Rezeption, Kognition, Projektion, Interaktion//** ==== Vokabular ==== Moods können passiv beschreibend sein oder aktiven Charakter haben um einen Vorgang auslösen. Um das genauer zu definieren kommen Adjektive(([[http://de.wikipedia.org/wiki/Adjektiv]])) (passiv) bzw. Verben(([[http://de.wikipedia.org/wiki/Verb]])) (aktiv) zu Einsatz. Vom Ansatz her sollten alle Hash-Tags das Substantiv(([[http://de.wikipedia.org/wiki/Substantiv]])) nutzen, da es im lexikalischen Sinne eine referenzielle Bedeutung hat. Bei näherer Betrachtung stellt sich dies als unzulänglich heraus, da wir durch Adjektive in der Lage sind konkrete Dinge oder abstrakte Vorgänge näher zu beschreiben. Geräte und Peripherie ziehen sich je nach ihrem Anwendungsfall die jeweiligen entsprechenden aktiven und passiven Definitionen. ==== Tags ==== Für die Kommunikation der Geräte untereinander werden aktuell Hash-Tags auf Twitter genutzt. ==== Aktueller Stand ==== Im Moment wird mit vordefinierten Moods gearbeitet welche speziell für die unten genannten Beispiele erarbeitet wurden. Diese vordefinierten Moods laufen lokal auf der jeweiligen Hardware und können via Hash-Tags(([[http://de.wikipedia.org/wiki/Hash-Tag]])) aktiviert werden. Zusätzlich wird überprüft ob sich weitere Geräte im Netzwerk befinden die Moods interpretieren und ausdrücken können. So ist es möglich das verschiedene Geräte untereinander kommunizieren obwohl der Hash-Tag nur auf einer Hardware eine Stimmung aktiviert hat. ---- ===== Unterstützte Hardware ===== ---- Hier ist die Hardware gelistet die in den unten genannten Beispielen zur Anwendung kommt: * Raspberry Pi(([[http://de.wikipedia.org/wiki/Raspberry_Pi]])) * Teensy 3.1 ---- ===== Beispiele ===== ---- * baji (Stefan Zeuner) * [[https://vimeo.com/85978623|Intimate]] (Christin Marczinzik) * Kibun (Franz Rosenberger) * [[http://vimeo.com/86648739|Lichtspiel]] (Marcel Wießler) * Maximum Fungi (Karl Ludwig Kunze) * MoodCube (Ronny Rohland) ---- ===== Links ===== ---- [[http://www.burg-halle.de/design/multimedia-vr-design.html|Burg Giebichenstein Kunsthochschule Halle, MM/VR]] [[http://everyware-burghalle.blogspot.de|everyware-burghalle.blogspot.de]] ==== Anwender ==== [[http://www.scobytec.com|ScobyTec.com]] (Maximum Fungi) ==== Presse ==== 2014-06-09 - [[http://motherboard.vice.com/en_uk/read/a-smart-mood-sensing-jacket-made-of-kombucha-because-thats-what-bikers-need|Vice Motherboard 'A Smart, Mood-Sensing Jacket Made of Kombucha..']] (Maximum Fungi) 2014-05-10 - [[http://inmybedmagazine.com/html/Issues/sex_toys.html|In My Bed Magazine 'Sex Toys' issue]] (Intimate) 2014-04-03 - [[http://www.magazin.uni-halle.de/de/15830/deutsch-design-trifft-wissenschaft/|Scientia Halensis: 'Wellnessgetränke oder Motorradjacke?']] (Maximum Fungi) ==== Ähnliche Anwendungen ==== [[http://www.w3.org/TR/emotionml|W3C Emotion Markup Language]] [[http://appleinsider.com/articles/14/01/23/apple-investigating-mood-based-ad-delivery-system|Apple investigating mood-based ad delivery system]] [[http://www.easy3dtv.com/scobytec/papers/010425_SICS_ExpressiveMessaging.pdf|Swedish Institute of Computer Science (Nokia Resarch) - Expressive Messaging on Mobile Platforms]] [[http://www.research.philips.com/technologies/projects/ami/breakthroughs.html|Philips Research - The technologies of Ambient Intelligence]] [[http://mro.massey.ac.nz/bitstream/handle/10179/3364/02_whole.pdf|Muhammad Taussef Quazi - Human emotion recognition using smart sensors]] [[http://www.ruf.rice.edu/~mobile/publications/likamwa2013mobisys2.pdf|MoodScope: Building a Mood Sensor from Smartphone Usage Patterns]] [[http://www.uofmhealth.org/news/archive/201405/listening-bipolar|Project PRIORI: Listening to bipolar disorder: Smartphone app detects mood swings via voice analysis]] [[http://www.heise.de/hardware-hacks/projekte/Mood-Cube-1930823.html|Mood Cube, Mensch-Maschine: Das Gemüt steuert eine RGB-LED]] [[http://www.musicfromtext.com|TransPose - Translating Literature into Music]] [[http://www.saifmohammad.com/WebPages/ResearchInterests.html|Dr. Saif Mohammad: Emotion Analysis & Sentiment Analysis]] [[https://www.stereomood.com/|Stereomood.com]] [[http://www.moodfuse.com/|Moodfuse.com]] [[http://www.digitalsmiths.com/press/digitalsmiths-announces-new-mood-based-video-content-discovery-feature|Digitalsmiths Mood-based Video Content Discovery]] [[http://www.ismll.uni-hildesheim.de/lehre/semML-09s/script/p97-dunker.pdf|Fraunhofer Institute for Digital Media Technology: Content-based Mood Classification for Photos and Music]] [[http://quantifiedself.com/guide/tag/mood|Quantified Self.com: Mood]] [[http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6618369&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D6618369|BBC: Evaluation of a mood-based graphical user interface for accessing TV archives]] [[http://link.springer.com/chapter/10.1007%2F978-3-540-75696-5_10#page-1|Towards Mood Based Mobile Services and Applications]] [[http://prada-research.net/~dinh/uploads/Main/Publications/Nguyen_etal_13mood.pdf|Mood sensing from social media text and its applications]] [[http://www.cs.rochester.edu/hci/pubs/pdfs/FoodMood.pdf|Microsoft Research Institute / University of Rochester: Food and Mood: Just-in-Time Support for Emotional Eating]] [[http://www.cnet.com/news/bracelet-and-rings-translate-sign-language/|Sign Language Ring Translates Hand Movements Into Spoken Words]] ---- ==== Patente ==== Hier sind Patente gelistet die sich im weitesten Sinne Stimmungen (Moods) bzw. den Umgang mit ihnen im digitalen Kontext beschreiben. Die Liste soll als Inspiration dienen und aufzeigen was im Moment schon beschrieben ist. [[https://www.google.com/patents/US20140025620|Apple, US 20140025620 A1, Inferring user mood based on user and group characteristic data]] [[http://www.google.com/patents/US20050144002|Hewlett-Packard, US 20050144002 A1, Text-to-speech conversion with associated mood tag]] [[https://www.google.com/patents/US20090182736|Kausik Ghatak, US 20090182736 A1, Mood based music recommendation method and system]] [[https://www.google.com/patents/US20090182736|Aol Inc., US 20100321519 A1, Personalizing content based on mood]] [[https://www.google.com/patents/US20090182736|Intuit Inc., US 8621416 B1, System and method for adapting software elements based on mood state profiling]] [[https://www.google.com/patents/US20090182736|Fujitsu Limited, US 20120130196 A1, Mood Sensor]] [[https://www.google.com/patents/US20090182736|Google Inc., US 8160549 B2, Mood-based messaging]] [[https://www.google.com/patents/US20090182736|Microsoft Corporation, US 20090002178 A1, Dynamic mood sensing]] [[https://www.google.com/patents/US20120143693?dq=20120143693&hl=de&sa=X&ei=SIq2U8CQB4qB4gScmIHICQ&ved=0CBwQ6AEwAA|Microsoft Corporation, US 20120143693 A1, Targeting Advertisements Based on Emotion]] [[https://www.google.com/patents/US20100332842|Yahoo! Inc., US 20090002178 A1, Determining a mood of a user based on biometric characteristic(s) of the user in an online system]] [[https://www.google.com/patents/US20100332842|Empire Technology Development, Llc, WO 2014065781 A1, Filtering user actions based on user's mood]] [[https://www.google.com/patents/US20100332842|International Business Machines Corporation, US 8239774 B2, Utilizing mood sensors in an electronic messaging environment]] [[https://www.google.com/patents/US20100332842|Mitel Knowledge Corporation, US 6411687 B1, Call routing based on the caller's mood]] [[https://www.google.com/patents/US20100332842|Gabriel-Angelo Ajayi, US 20130254276 A1, Online social media platform that records and aggregates mood in color]] [[https://www.google.com/patents/US20100332842|At&T Intellectual Property I, L.P., US 7940186 B2, Methods, apparatus, and computer program products for estimating a mood of a user, using a mood of a user for network/service control, and presenting suggestions for interacting with a user based on the user's mood]] [[https://www.google.com/patents/US20100332842|Aol Inc., US 7921369 B2, Mood-based organization and display of instant messenger buddy lists]] [[https://www.google.com/patents/US20100332842|Intel Corporation, US 20070238934 A1, Dynamically responsive mood sensing environments]] [[https://www.google.com/patents/US20130211773|Xybermind GmbH, US 20070238934 A1, Method and apparatus for sensing a horse's moods]] [[https://www.google.com/patents/WO2002043391A1?cl=en&hl=de|Koninkl Philips Electronics Nv, WO 2002043391 A1, Method and apparatus for generating recommendations based on current mood of user]] [[https://www.google.com/patents/US20130225261|Immersion Corporation, US 20130225261 A1, Method and apparatus for generating mood-based haptic feedback]] [[https://www.google.com/patents/US20070162606|Inventec Corporation, US 20070162606 A1, Communication device capable of setting a mood mode and method for sending and receiving a mood mode by the communication device]] [[https://www.google.com/patents/US20080294741|France Telecom, US 20080294741 A1, Method of dynamically evaluating the mood of an instant messaging user]] [[https://www.google.com/patents/US20120304206?dq=20120304206&hl=de&sa=X&ei=C422U8T6H4WA4gThxoCYDA&ved=0CBwQ6AEwAA|Verizon Patent And Licensing, Inc., US 20120304206 A1, Methods and Systems for Presenting an Advertisement Associated with an Ambient Action of a User]]