Choosing Android’s System Sounds for Cordova Push Notifications, using Native Configuration Screens

One of the features most wished for in one of my Cordova-based android apps was to let the users choose another sound for push notifications, or to disable sound altogether (without having to mute the whole smart phone and still keeping vibration). The Push Plugin supports custom sounds, however all sound resources have to be embedded in the app. In my case, I wanted to let the users choose among the system sounds provided by Android itself, which apparently isn’t possible without some major changes to the plugin.

Here, I’m going to outline the changes necessary to integrate Android’s native RingtonePreference dialog into a Cordova-based app to let the users choose another notification sound. I’ve published the modified plugin that should work on android projects on Github.

Screenshot_2015-04-29-18-13-18Screenshot_2015-04-29-18-13-23

Configuration Dialog

Choosing the preferences for push notifications is done in a native android PreferenceScreen that is opened from within the app using a new javascript-method on the pushNotification-Object. The configuration screen is defined by a xml file stored at platforms/android/res/xml/pushsettings.xml:



    

        

        

        

        

    

The referenced strings are stored in platforms/android/res/values/strings-gcm.xml:



    Notifications
    Light
    Light is switched on
    Light is switched off
    Vibration
    Vibration is switched on
    Vibration is switched off
    Sound
    Sound is switched on
    Sound is switched off
    Ring tone
    Choose a ring tone

Translated versions can be stored in files like platforms/android/res/values-de/strings-gcm.xml

Opening the dialog
First of all, a new activity has to be defined in the platforms/android/AndroidManifest.xml:


The Activity itself is pretty simple, just remember to replace the „CORDOVA_PACKAGE_ID“ by the id of your app (necessary to access the R.xml.pushsettings-resource):

package com.plugin.gcm;

import CORDOVA_PACKAGE_ID.R;
import android.os.Bundle;
import android.preference.PreferenceActivity;

public class PushSettingsActivity extends PreferenceActivity {
    @Override
    public void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        addPreferencesFromResource(R.xml.pushsettings);
    }
}

This activity is called from PushPlugin.java’s execute-method, something like:

if ('showPushSettings'.equals(action)) {
    Intent i = new Intent(this.cordova.getActivity(), PushSettingsActivity.class);
    this.cordova.getActivity().startActivityForResult(i, RESULT_PUSH_SETTINGS);
    callbackContext.success();
}

The JavaScript-method to call this in PushNotification.js is:

PushNotification.prototype.showPushSettings = function (successCallback, errorCallback) {
    if (errorCallback == null) {
        errorCallback = function () {}
    }
    if (successCallback == null) {
        successCallback = function () {}
    }

    if (typeof errorCallback != "function") {
        console.log("PushNotification.showPushSettings failure: failure parameter not a function");
        return;
    }

    if (typeof successCallback != "function") {
        console.log("PushNotification.showPushSettings failure: success callback parameter must be a function");
        return;
    }

    cordova.exec(successCallback, errorCallback, "PushPlugin", "showPushSettings", []);
};

With all these changes applied, a call to plugins.pushNotification.showPushSettings() should open the configuration dialog and let the user apply her desired notification sound. The settings are stored automatically in android’s SharedPreferences. In the source code of the plugin, I also added a getPushSettings()-method that returns the settings into JavaScript, if you ever need to query these settings.

Using the settings for the notification
The actual notification sound is triggered in GCMIntentService.java’s onMessage-method. The new code reads the settings from the SharedPreferences and acts accordingly:

SharedPreferences app_preferences = PreferenceManager.getDefaultSharedPreferences(this);
boolean vibration = app_preferences.getBoolean("com.plugin.gcm.vibration", true);
boolean sound = app_preferences.getBoolean("com.plugin.gcm.sound", true);
boolean light = app_preferences.getBoolean("com.plugin.gcm.light", true);
String ringtonePath = app_preferences.getString("com.plugin.gcm.ringtone", "defValue");
int defaults = 0;
if (vibration) defaults = defaults | Notification.DEFAULT_VIBRATE;
if (light) defaults = defaults | Notification.DEFAULT_LIGHTS;
		
NotificationCompat.Builder mBuilder =
    new NotificationCompat.Builder(context)
        .setDefaults(defaults)
        .setSmallIcon(context.getApplicationInfo().icon)
        .setWhen(System.currentTimeMillis())
        .setContentTitle(extras.getString("title"))
        .setTicker(extras.getString("title"))
        .setContentIntent(contentIntent)
        .setAutoCancel(true);

if (!ringtonePath.equals("") && sound) {
    Uri uri = Uri.parse(ringtonePath);
    Ringtone r = RingtoneManager.getRingtone(getApplicationContext(), uri);
    r.play();

    mBuilder.setSound(null);
}

I’m using the Ringtone.play() instead of the setSound()-method of NotificationCompat.Builder, as the latter one somehow didn’t actually change the sound, even with the URL of the sound provided. I haven’t yet figured out why, but there probably is a solution that’s more elegant than the one showed above.
That’s it. Have fun! 🙂

OpenRIS – Konzept und aktueller Stand

Vor gut zwei Jahren hatte ich schon einmal etwas zu meinem „Pet Project“ rund ums Münchner Ratsinformationssystem geschrieben. Leider lag das das Projekt danach für eine ganze Weile brach, insbesondere da die Klärung der rechtlichen Aspekte im Getriebe wechselnder Zuständigkeiten in der Münchner Verwaltung im Sande verlaufen ist. In den letzten Monaten habe ich aus zwei Gründen wieder mehr Elan gefunden, um das Projekt voranzutreiben: zum einen habe ich, seit ich in den Laimer Bezirksausschuss gewählt wurde, seit Mai fast täglich das „Vergnügen“, mit dem Münchner Ratsinformationssystem in Berührung zu kommen, Aggro-„Das geht doch besser!“-Reflexe inklusive. Zum anderen habe ich, ebenfalls seit Mai, über die „OK Labs“ der Open Knowledge Foundation ein gutes organisatorisches Umfeld gefunden, in dem man das Projekt aufhängen kann, um es zu mehr als nur meinem Privat-Projekt zu machen.

Der Name „OpenRIS“ ist ein reiner Arbeitstitel, ich werde den Namen dementsprechend austauschen, sobald es einen endgültigen Titel gibt.

Welche Probleme soll das Projekt lösen?

Das Ratsinformationssystem (RIS) bietet eine unglaubliche Zahl an Dokumenten rund um den Münchner Stadtrat und die Bezirksausschüsse (BAs), von Sitzungsvorlagen, Tagesordnungen und Niederschriften hin zu Stadtratsanträgen und – noch wichtiger, da meist noch informativer – den Stellungnahmen der Referate dazu. Geschätzt knapp 140.000 Dokumente. Nur: es ist furchtbar unübersichtlich und unpraktisch. Zur Einführung als neu gewählte Bezirksausschussmitglieder bekamen wir eine zehnseitige bebilderte Anleitung, wie man darin Beschlüsse finden kann – was für die Hilfsbereitschaft der Stadtverwaltung spricht, aber nicht gerade für die Usability des RIS, das ja eigentlich die Politik den BürgerInnen gegenüber transparent machen soll. Wichtige Funktionen fehlen, und eine nur schlecht funktionierende Volltextsuche rundet die Sache ab.

Kernfunktionen

OpenRIS soll einerseits die gezielte Volltextsuche nach Themen durch einen zentralen Suchindex erleichtern, der sich unabhängig vom Dokumenttyp mit der von Suchmaschinen her bekannten Syntax durchsuchen lässt – auch bei Dokumenten, die nur in gescannter Form vorliegen (OCR).

Vor allem aber soll es OpenRIS interessierten BürgerInnen leichter machen, auf dem Laufenden zu bleiben – zu konkreten Sachthemen sowie zu allen Angelegenheiten, die sich um ihr Wohngebiet (z.B. ihren Stadtteil) drehen. Dafür gibt eine Timeline-Ansicht aller Dokumente, die sich entweder auf die Stadt allgemein oder auf einen konkreten Stadtteil beziehen. Gefundene Dokumente werden anhand enthaltener räumlicher Bezugspunkte auf einer Karte eingezeichnet. Zentral ist dabei eine Benachrichtigungsfunktion: es ist möglich, zu einer Suche (sowohl im Volltext als auch zu Metadaten wie Stadtteilbezug) eine Benachrichtigung per E-Mail einzurichten, sodass man informiert wird, sobald es neue Dokumente gibt, die diesen Kriterien entsprechen.

OpenRIS wird aber nicht (wie z.B. Offenes-koeln.de) die Dokumente selbst anbieten – sondern stattdessen schlicht auf die Dokumente im Original-RIS verlinken.

Welche Probleme kann das Projekt nicht lösen?

OpenRIS kann keine Dokumente auffindbar machen, die nicht ohnehin schon im (öffentlichen) Ratsinformationssystem zu finden sind. Es kann also nichts daran ändern, wenn Dokumente gar nicht oder nur mit größerer Verzögerung online gestellt werden. Letzteres scheint leider gerade im Umfeld von Bezirksausschüssen sehr häufig vorzukommen.

Komponenten

OpenRIS besteht aus mehreren Teilen, die konzeptionell voneinander unabhängig sind und teils auch nicht alle zu Beginn eingebaut sein werden.

Scraping

Da das offizielle Ratsinformationssystem keine API anbietet, über welche die Metadaten abrufbar sind, ist der erste Schritt ein Scraping-Mechanismus, der die öffentlich zugänglichen HTML-Seiten des Ratsinformationssystems in eine normalisierte SQL-Datenbank umwandelt. Jede Menge Regular Expressions kommen hier zum Einsatz, die in folgendes Datenmodell bespielen:

schema

Beim aktuellen Entwicklungsstand werden die Metadaten der Stadtratsanträge, Stadtratsvorlagen, Stadtrats(ausschuss)sitzungen, BA-Anträge, BA-Initiativen, BA-Sitzungen, Bürgerversammlungsempfehlungen, und die Liste der Stadtrats- und BA-Mitglieder erfasst, sowie die Beziehungen untereinander. Bei den Versammlungen werden insbesondere auch die Tagesordnungspunkte strukturiert erfasst und die gefassten Beschlüsse indiziert. Ich versuche dabei auch, einige der technischen Probleme des offiziellen RIS zu umschiffen – beispielsweise die Encoding-Probleme (langgezogene Bindestriche sowie deutsche Anführungszeichen im Titel werden grundsätzlich als Fragezeichen dargestellt; mein Nachname entwickelt eine ganz eigene Ästhetik).

Noch nicht erfasst werden u.a. Mitgliedschaften von Personen in einzelnen Gremien, die Metadaten zu den einzelnen ReferentInnen, und vereinzeln Angaben wie beispielsweise Positionen / Funktionen von Stadtratsmitgliedern.

Das Scraping bezieht sich dabei nur auf die Metadaten, also beispielsweise, wer wann einen Antrag gestellt hat sowie den Titel des Antrags – nicht aber den tatsächlichen Text des Antrags. Während die Metadaten am Ende auch über OpenRIS abrufbar sein sollen (z.B. auch über eine API), wird das bei den vollen Texten der Anträge und Vorlagen nicht der Fall sein, da das im Gegensatz zu den Metadaten möglicherweise Urheberrechte berühren könnte.

Volltextindex & Suche

Ähnlich wie bei gängigen Web-Suchmachinen wird ein Volltextindex aller gefundener Dokumente aufgebaut, in dem nach Schlüsselwörtern und Metadaten gesucht werden kann. Als Software kommt hier Apache Solr zum Einsatz. Wird ein Dokument über die Volltextsuche gefunden, wird ein Snippet angezeigt, nicht aber der gesamte Text des Dokuments – statt dessen wird einfach die Originaldatei verlinkt, was im Münchner RIS (anders als z.B. beim Kölner) ohne Probleme möglich ist.

Der Text wird auf zwei Wegen aus den Dokumenten ausgelesen: bei regulären PDF-Dateien, in denen der Text auch als solcher gespeichert wird, wird der Text mittels Apache PDFBox extrahiert (was bei meinen Tests zuverlässiger funktionierte als das verbreitetere pdf2text). Da sich unter den Dokumenten aber auch viele TIFF-Dateien und PDFs mit nur gescannten Bildern befinden, wird grundsätzlich jedes Dokument zusätzlich noch durch zwei OCR-Programme verarbeitet: zunächst das freie Tesseract, das passable Ergebnisse liefert und sich als Kommandozeilentool leicht automatisch einbinden lässt. In einem zweiten Schritt dann noch durch das kostenpflichtige OmniPage Ultimate, das in meinen Tests sehr viel bessere Ergebnisse lieferte als Tesseract, sich als reines Windows-Programm aber nur sehr eingeschränkt automatisieren lässt (zumindest in der noch bezahlbaren Version).

Aus dem Volltext der Dokumente wird dann noch versucht, Ortsbezüge herzustellen, indem im Text nach bekannten Straßennamen gesucht wird, ggf. mit den folgenden Hausnummern, und diese Angaben dann durch eine der vielen gängigen Geocoding-Webservices in Geodaten umgewandelt werden. Das funktioniert zurzeit nur so semi-toll; zwar gut genug, dass es einen wirklichen Mehrwert bietet – aber leider noch mit vielen fehlerhaften Treffern. Sei es weil eine Straße in einer anderen Stadt mit dem selben Namen wie eine Münchner Straße erwähnt wird, sei es, dass die „str.“-Abkürzung nicht immer für „Straße“ steht, sondern gerne auch mal für „Stadtrat“ und dadurch Missverständnisse entstehen. Das Problem haben auch vergleichbare Projekte anderer Städte wie beispielsweise „Offenes Köln“, sodass die Optimierung dieses Algorithmus ein lohnenswertes, für sich alleine stehendes Projekt sein könnte.

Diese Komponente ist inzwischen funktional weit gehend benutzbar (um das Wort „fertig“ vermeiden, das bei Web-Projekten bekanntermaßen nie zutrifft).

Web-Interface

Ein Großteil der Arbeit fließt momentan in das Web-Interface, über das neue Dokumente angezeigt und auf einer interaktiven Karte verzeichnet werden, Informationen zur Zusammensetzung des Stadtrats und der Bezirksausschüsse, eine Volltextsuche, usw. Technisch ist daran wenig Spannendes.

Ich erwähne dabei nur mal, dass ich vom einbettbaren Kartenmaterial von Skobbler sehr angetan bin, insbesondere da es auf den Daten von Openstreetmap basiert, die meinem Empfinden nach sehr viel detaillierter als Google Maps & co sind, in der fertig gerenderten Fassung aber meist große „ästhetische Defizite“ aufweist. Von der Kombination Leaflet.js + Skobbler bin ich sehr angetan, insbesondere seit letzteres auch Retina-kompatible Grafiken ausliefert.

Die spannendste Funktion des Web-Interface wird sicher die Möglichkeit sein, sich E-Mail-Benachrichtigungen einrichten zu können. Das funktioniert so, dass jede Suchanfrage (z.B. eine Kombination aus Stadtteilbezug und einem Suchbegriff, oder dem initiierenden Stadtratsmitglied) gespeichert und einer E-Mail-Adresse zugeordnet werden kann. Immer wenn ab dann dem Volltextindex neue Dokumente hinzugefügt werden, wird überprüft, ob es gespeicherte Suchanfragen gibt, die auf das neue Dokument zutreffen – und der Inhaber wird benachrichtigt. Darüber hinaus soll es auch möglich sein, einzelne Anträge zu abonnieren, um dann entweder über neue Dokumente zu diesem Antrag benachrichtigt zu werden (z.B. wenn ein Referat eine Anfrage beantwortet), oder über Statusänderungen (z.B. wenn der Antrag einer konkreten Sitzung zugeordnet wird).

E-Mail ist dabei die naheliegendste Benachrichtigungsform – andere Formen wie beispielsweise GCM oder APS für Android/iOS-Apps wären aber für die Zukunft auch denkbar.

Alternativ zu den Benachrichtigungen soll es die Suchergebnisse zu bestimmten Suchanfragen auch in Form von RSS-Feeds geben.

Das Web-Interface ist zurzeit aber noch sehr Alpha, und da sich hier einerseits noch Leute vom „OK Lab“ einbringen wollen, und ich das andererseits auch mindestens noch einer Person, die von Design mehr versteht als ich vorlegen will, dürfte da noch sehr viel passieren.

OParl-API

Seit einigen Monaten gibt es die OParl-Initiative, die einen offenen Standard zum Abruf von Daten aus parlamentarischen Informationssystemen erstellt – der erste Entwurf, wurde im Mai 2014 veröffentlicht. Über OParl wäre es beispielsweise möglich, mobile Apps zu entwickeln, welche auf die Daten verschiedener Ratsinformationssysteme zugreifen kann. Der Standard beschränkt sich momentan recht stark auf die Modellierung des Datenmodells und bietet einige wenige Anfragetypen an.

Meiner ersten Einschätzung nach ist das OParl flexibel genug, um die Datenstruktur des Münchner RIS abzubilden (insb. auch die recht spezielle Konstellation mit Stadtrat und Bezirksausschüssen). Daher bietet es sich an, diese API auch in OpenRIS zu implementieren. Diese API würde ausschließlich auf die Metadaten aufsetzen, die durch das Scraping gewonnen werden, da eine Volltextsuche derzeit vom OParl-Standard noch nicht vorgesehen zu sein scheint, und der Volltextabruf über OpenRIS aus den oben genannten Gründen voraussichtlich nicht möglich sein wird.

Für viele praktische Anwendungsfälle, wie die genannte Volltextsuche, eine Suche nach Ortsbezug, oder eine Benachrichtigungsfunktionalität, wird es aber „proprietäre“ Erweiterungen der API benötigen, bis sich diese vielleicht in einer zukünftigen Version von OParl wiederfinden.

BürgerInnenbeteiligung

Bei den OK Labs (und auch den inoffiziellen Vorgängern, den MOGDy-Treffen) kamen eine ganze Reihe an Ideen, die Plattform um interaktive, bis hin zu partizipativen Komponenten zu ergänzen. Ein Vorbild dafür ist „Frankfurt Gestalten“, über das BürgerInnen eigene Initiativen online stellen können. Ein Knackpunkt für solche Plattformen ist aber die Rückkopplung in die Stadtverwaltung bzw. -politik hinein: in einem Blog-Posting vom Mai ’14 beklagen die Betreiber von Frankfurt Gestalten auch genau diesen fehlenden Rückkanal als großen Nachteil ihrer Plattform. Wenn OpenRIS um eine solche Komponente ergänzt werden soll, wird daher sehr viel Arbeit in die Ausarbeitung eines Konzepts fließen müssen, damit am Ende keine Plattform entsteht, die BürgerInnenbeteiligung nur vorgaukelt – und sich auch von den bestehenden Angeboten (wie beispielsweise das bis vor kurzem laufende „Direkt zu Ude“, oder den Gefahrenatlas der Süddeutschen) abzuheben.

Vergleichsweise einfach wären dagegen Ideen, wie sie Georg Kronawitter in einem Stadtratsantrag vor einigen Jahren schon formulierte.

Statistische Daten

Eine weitere Möglichkeit, OpenRIS weiter auszubauen, wäre, statistische Daten mit zu integrieren, um eine gemeinsame Plattform zu haben, um solche Stadtbezogene Informationen anzubieten. Relevant dürften dabei insbesondere die Zahlen des Statistischen Amts München sein.

Entwicklung

Angaben dazu, wann das Projekt live geht, mache ich besser nicht mehr – mit „kommt jetzt wirklich bald“ habe ich mich schon vor zwei Jahren in die Nesseln gesetzt.
Den Quelltext des aktuellen Entwicklungsstands gibt es aber schon auf Github, und das Projekt wird natürlich auch unter eine OpenSource-Lizenz gestellt.

Animexx Event-App

Animexx Event-App

GooglePlay_130x45
AppStore_135x40

Die Event-App, die ich für den Animexx geschrieben habe, ist nun sowohl im Apple AppStore als auch auf Google Play verfügbar. Sie deckt einen Großteil der Funktionalität des Animexx-Eventkalenders ab, unter anderem:

  • Den Eventkalender nach Ort, Name und Gebiet durchsuchen und auf aufgerufene Events dann auch offline wieder zugreifen.
  • Man kann öffentlich bekannt geben, dass man zu einem Event geht.
  • Der Programmplan des Events ist über die App zugänglich, man kann sich auch für einzelne Programmpunkte eintragen.
  • Wenn es etwas Neues gibt, wird man aktiv über Push-Nachrichten darüber benachrichtigt – beispielsweise wenn ein Event, für das man sich eingetragen hat, auf Animexx eine neue News veröffentlicht, wenn sich ein Programmpunkt, für den man sich eingetragen hat, verschiebt, oder wenn es ein Neues Event einer abonnierten Eventreihe gibt.
  • Man kann Fotos zu einem Event anschauen, kommentieren, sich auf Fotos eintragen, auf denen man zu sehen ist und Bekannte auf Fotos „petzen“.
  • Eventkommentare schreiben und Eventberichte anderer Nutzer lesen und kommentieren.
  • Die wichtigsten Informationen der Steckbriefe der eigenen Bekannten einsehen, sowie Gästebucheinträge verfassen.
  • Event-bezogene Microblog-Nachrichten schreiben, mit Foto-Anhang.
  • Den Treffpunkt des Events kann man sich auf einer Karte anzeigen lassen, auf Wunsch auch in der Standard-Kartenanwendung (Google bzw. Apple Maps).
  • Conhopperorden am Animexx-Stand abholen (über einen QR-Code).

screenshot1screenshot2screenshot3

Die App ist hauptsächlich in HTML5 / JS / SASS geschrieben und per Cordova ins iOS/Android-App-Format gebracht.

manga-dō – der Weg des manga vom japanischen Holzschnitt zu Manga und Anime

Seit heute läuft in Münchner Kulturzentrum Gasteig die zweiwöchige Ausstellung „manga-dō – der Weg des manga vom japanischen Holzschnitt zu Manga und Anime“. Da ich als Vertreter des Animexx e.V. bei den Vorbereitungen der Ausstellung und des Begleitprogramms beteiligt war, will ich hier dazu auch ein paar Worte verlieren.

Gleich vorweg: den mit weitem Abstand größten Teil der Organisation und inhaltlichen Vorbereitung übernahm Günter Beck, Fotograf und Sammler japanischer Bildkultur, der einen Großteil der Ausstellungsstücke aus seiner privaten Sammlung zur Verfügung stellte und wie nebenbei noch Flyer und Plakate gestaltete sowie das Begleitheft zur Ausstellung in Eigenregie produzierte.

Das ganze Projekt wurde schon seit der zweiten Hälfte 2012 geplant, auch getrieben durch die Initiative von Dr. Freddy Litten (mit dem ich letztes Jahr auch schon einen Podcast zur Geschichte des Anime aufgenommen hatte). Sofort mit im Boot waren die Münchner Volkshochschule, die Münchner Stadtbibliothek und der Gasteig, die vor über zehn Jahren schon einmal eine Manga-Ausstellung ausgerichtet hatten und dabei wohl gute Erfahrung gemacht hatten.

11930059
11930069

Den Mittelpunkt der ganzen Aktion ist die Ausstellung, vor allem die vielen Historischen Exponate von Günter Beck. Hier werden in Vitrinen und Bildergalerien verschiedenste Zeichnungen und Gegenstände gezeigt, von Holzschnitten und historische Schriftrollen über „Japan Punch“-Ausgaben hin zu (inzwischen auch schon fast historischen) Anime-Cels und natürlich modernen Manga-Tankōbon. Nicht ausgespart werden dabei die „Shunga“ („Frühlingsbilder“), erotische Bilder, die in einem räumlich leicht abgetrennten Bereich präsentiert werden.

11930065
11930055

Vom Animexx kommen die Vitrinen zur „Cross-Medialität“ des Manga, in denen exemplarisch die Vernetzung des modernen Manga mit anderen Medien-Gattungen dargestellt werden soll. Da Anime und Dōjinshi schon an anderer Stelle behandelt werden, geht es hier um Manga-Realverfilmungen, Musicals, Cosplay, Light Novels, Visual Novels, Figuren und Model-Kits und J-Pop/-Rock. Das Prinzip ist dabei, dass jeweils zu einer konkreten Serie der Manga sowie das jeweils andere Medium präsentiert wird, damit dadurch die Umsetzung des Stoffes sichtbar wird. Aufgelockert wird das ganze noch durch diverses Merchandise.

An dieser Stelle auch ein Dankeschön an sakura_b, die für die Ausstellung ihr Jeanne-Kostüm, und  lore,  Kathal und  Ani, die ihre Figuren zur Verfügung gestellt haben.

1193008111930077

Es gibt aber nicht „nur“ die Ausstellung, sondern auch ein Rahmenprogramm, das über die zwei Wochen verteilt im Gasteig stattfindet. Besonders erwähnenswert ist dabei die Eröffnungsveranstaltung, die kommenden Samstag, den 25. Januar ab 18:00 Uhr stattfindet und darauf angelegt ist, ein Hauch von Con-Feeling zu vermitteln: neben einem kurzen Vortrag vom Comic-Journalisten Harald Havas (der eher aus der „klassischen“ Comic-Szene kommt, dessen unterhaltsame Vorträge im Rahmen des Comic-Salons Erlangen wir zu schätzen gelernt haben) wird es eine Show-Einlage der Tsuki no Senshi geben, sowie anschließend eine thematisch passendes Videoprogramm: wir zeigen die ersten vier Folgen von „Bakuman“, das durch die Thematisierung des Entstehungsprozesses moderner Manga gut zur Ausstellung passt (die Lizenzierung der Episoden war dank der Unterstützung von Anime on Demand dann auch gar nicht so umständlich, wie man es Lizenzverhandlungen ansonsten üblicherweise nachsagt).

Daneben gibt es noch eine Reihe an Vorträgen im Rahmen des Münchner Volkshochschule, die insbesondere auch für „fortgeschrittene Fans“ interessant sein dürften:

Bei „Tatsumi“ handelt es sich um einen Animationsfilm aus Singapur, der auf dem autobiografischen Manga „A Drifting Life (劇画漂流 Gekiga Hyōryū)“ von Yoshihiro Tatsumi basiert, einem der wichtigsten Vertreter des Gekiga-Mangas.

Ein Grund, eine der Veranstaltungen zu besuchen, ist übrigens, dass es hier auch die kostenlosen 42seitigen Begleithefte zur Ausstellung gibt, die noch eine Menge an zusätzlichen Informationen und Abbildungen beinhalten.

Noch ein paar mehr Fotos insb. vom Aufbau gibt es in meiner Fotogalerie.

Manga-Datenbank-App

Animexx Manga-Datenbank
GooglePlay_130x45
AppStore_135x40

Seit kurzem ist nun meine erste Android- und iOS-App erhältlich: die Manga-Datenbank. Sie bringt das Verzeichnis aller in Deutschland erschienenen Mangas, das auf der Animexx-Seite seit dem Jahr 2000 kontinuierlich gepflegt wird, aufs Smartphone. Man kann die Mangas nach Herkunftsland, Genre und Titel durchsuchen, eintragen, welche Mangas man selbst schon hat, und sich per Push-Notifications über Neuerscheinungen abonnierter Manga-Serien benachrichtigen lassen. Die Basisdaten der Bände (Titel, ISBN-Nummer, und ob man den jeweiligen Band schon besitzt oder nicht) sind dabei auch offline abrufbar.

Die Manga-Datenbank ist mein erster Gehversuch im Bereich von HTML5-basierten Apps. Die größte Herausforderung war dabei die Datenmenge – die Datenbank umfasst knapp 10.000 Einzelbände aus knapp 2.000 Serien. Auf moderneren Smartphones ist das kein Thema – für ältere Android 2.3-Geräte mit vergleichsweise wenig Speicherplatz waren hingegen einige Kompromisse nötig, um die offline vorgehaltene Datenmenge auf wenige Megabyte begrenzt zu halten und das Rendering langer Listen nicht allzu ruckelig werden zu lassen.

screenshot1screenshot2screenshot3

Die ersten Rückmeldungen aus der Animexx-Community sind zumindest schon einmal sehr ermutigend. 🙂

OpenStreetMaps / Typo3

Ich hatte bei der Verwaltung der Seite unseres Ortsverbandes (Westend-Laim) das Problem, dass ich die Newsmeldungen (hauptsächlich Termin-Ankündigungen) mit interaktiven Karten versehen wollte, dabei aber zum einen lieber auf OpenStreetMaps denn auf GoogleMaps setzen will und es außerdem mit einer recht restriktiv eingestellten Typo3-Installation zu tun habe, auf die ich nur recht begrenze Zugriffsrechte habe.
Hauptproblem dabei war, dass die News-Erweiterung in den vorliegenden Einstellungen weder JavaScript noch IFrames zulässt, womit das ganze schon nur noch über eher hässliche Hacks möglich ist. Und genau eines solchen hab ich mich dabei auch bedient (und dabei natürlich Rücksprache mit Claude vom Stadtbüro gehalten):

http://gruenefeeds.hoessl.eu/osm-generator.html

Auf der Seite kann man sich einen Kartenausschnitt und eine Markierung auswählen und bekommt dazu einen Code angezeigt. Der Trick dabei ist, im News-Teil selbst nur einen HTML-Link anzuzeigen, der alle relevanten Daten beinhält und gleichzeitig als Fallback-Lösung dient.
Der zweite Teil des erzeugten Codes ist statisch und muss nur einmal als HTML-Seiteninhaltselement (bei dem dann auch JavaScript möglich ist) auf jedem Seitentyp eingebunden werden, bei dem eine Newsinhalt vorkommen kann. Dieser durchsucht die geladene Seite und wandelt alle Links nachträglich in eine eingebettete OpenStreetMap-Karte um.
Das Ergebnis sieht man z.B. auf dieser Seite.

Ich weiße vorsorglich darauf hin, dass bei der Übernahme des Codes die beiden JavaScript-Dateien jquery-x.x.x.js und OpenLayers-x.x.x.js schon aus Datenschutzgründen nicht von meinem privaten Server gruenefeeds.hoessl.eu geladen werden sollten.

Grüne RSS-Feeds aus München [Update 20.03.2011]

Ich bin ja ein recht großer Fan von RSS-Feeds. Sie bieten eine gute Möglichkeit, eine größere Zahl an Nachrichtenquellen im Auge zu behalten, ohne die jeweiligen Websites ständig besuchen zu müssen. Nutzen kann man sie mit einer Vielzahl an Programmen, von Thunderbird, Outlook & Co bis hin zu Web-Anwendungen wie Facebook, iGoogle (oder natürlich der Persönlichen Startseite bei Animexx).
Leider haben zwar einige Seiten einen News-Ticker, aber keinen zugehörigen RSS-Feed – erfahrungsgemäß meist deswegen, weil das angewendete Content Management System dies nicht anbietet oder nicht daraufhin konfiguriert ist. Da ich die Vorzüge trotzdem nicht missen möchte, hab ich mich mal eines programmiertechnischen Tricks bedient, um aus einigen der für mich relevanten Seiten trotzdem einen funktionierenden RSS-Feed zu erzeugen. Die folgenden Feeds sind zwar eigentlich für meinen eigenen Bedarf eingerichtet, aber vielleicht zieht ja noch jemand anderes einen Nutzen daraus:

Eine Kombination vieler relevanten Feeds gibt es unter http://gruenefeeds.hoessl.eu/rss/gruene_combined/

Zu diesem Blog

Meine Beweggründe, dieses Blog zu starten:
Ich hatte in den letzten Monaten häufiger gemerkt, dass ich eine Plattform brauche, um Artikel oder Kommentare zu veröffentlichen. Wenn ich etwas im Rahmen des Animexx mache, ist dafür natürlich das Aktiven-Weblog ideal.
Seit September ’09 bin ich nun in meiner Freizeit bei Bündnis 90 / Die Grünen aktiv, und nach einer etwas längeren „Schnupperphase“ zeichnet sich für mich langsam ab, dass ich hier einfach richtig bin und daher wohl auch längerfristig aktiv sein werde.
Ich habe mich daher dazu entschlossen, ein weiteres Weblog aufzusetzen. Ich hätte freilich auch das Animexx-Weblog-System dafür nutzen können – nach dem „eating your own dog food“-Prinzip wäre das auf der einen Seite auch konsequent gewesen. Auf der anderen Seite halte ich es für enorm wichtig, dass ich meine persönlichen politischen Einstellungen und Aktivitäten aus meinem Beruf bzw. meiner langjährigen Leidenschaft, dem Betreiben der Anime/Manga-Jugend-Plattform Animexx, heraushalte. (Anders herum habe ich freilich weniger Hemmungen: ich werde gerne jeden Grünen von den Vorzügen von Anime/Manga überzeugen 🙂 ).  Aus diesem Grund gibt es von meiner Seite aus erst mal ein weiteres WordPress-Weblog.
Inhaltlich ist es immer etwas gefährlich, bei persönlichen Weblogs Vorhersagen zu machen, da es am Ende doch immer anders kommt als man denkt. Ich richte mich aber in erster Linie an Grüne aus dem Raum München, wobei man das mit dem „Raum München“ bei Bedarf auch gerne großzügig bis über Berlin hinaus auslegen darf.

Das Elaboration Likelihood Model

Arbeit in „Theorien und Modelle in der Kommunikationswissenschaft“, SS 2003

Übersicht

Das „Elaboration Likelihood Model“ (ELM) von Richard Petty und John T. Cacioppo (1981) beschreibt den Prozess einer möglichen Meinungsänderung in Folge einer persuasiven Botschaft und ist bis heute eines der anerkanntesten Modelle auf dem Gebiet der Medien-Wirkungsforschung.

Im Kern geht es davon aus, dass es zwei unterschiedliche Arten der Verarbeitung einer persuasiven Botschaft gibt. In der „zentralen Route“ findet eine eingehende Auseinandersetzung mit den Argumenten der Botschaft statt, der Rezipient macht sich ein differenziertes Bild der Sachlage. In der „peripheren Route“ dagegen findet nur eine sehr oberflächliche Beschäftigung mit den Inhalten statt, man kommt eher an Hand von äußerlichen Merkmalen zu seiner Meinung.

Das ELM beschreibt nicht nur diese beiden „Routen“, sondern auch die Voraussetzungen, die zum Beschreiten der jeweiligen Route gegeben sein müssen und welche Faktoren dies beeinflussen. Außerdem wird gezeigt, welche Eigenschaften der Nachricht sich in Abhängigkeit von der beschrittenen Route aus welche Weise auf den Persuasionsprozess auswirken – es kommt durchaus vor, dass sich eine Eigenschaft bei peripherer Verarbeitung positiv, bei elaborierter Verarbeitung aber negativ auswirken kann.

In dieser Arbeit soll zunächst der Begriff des Involvements geärt werden, der eines der zentralen Konzepte des Elaboration Likelihood Modells ist. Es folgt eine genauere Beschreibung des Modells selbst, wobei zuerst die beiden Arten der Informationsverarbeitungen charakterisiert werden. Anschließend wird erläutert, welche Voraussetzungen es für die elaborierte Auseinandersetzung gibt und welche Faktoren diese begünstigen können. Eine kurze Kritik über das Modell, ein Ausblick auf die Zukunft und die knappe Vorstellung einer aktuellen Studie, die auf dem ELM basiert, sollen diese Arbeit abrunden.

Involvement

Involvement – zu deutsch die „Beteiligung“, die „Eingebundenheit“ – ist kein für sich stehendes Modell in der Kommunikationsforschung, sondern ein Konzept, das von Modellen einbezogen wird um unterschiedliche Informationsverarbeitungsprozesse beim Rezipienten auszudifferenzieren. Es wird zwischen hohem und niedrigem Involvement unterschieden – ersteres ist im ELM für eine intensive Auseinandersetzung mit der Medienbotschaft förderlich, letztere hinderlich. Obwohl oder gerade weil dies so eingängig und alltäglich klingt, stellt das Involvement-Konzept die Forscher doch vor ein gewisses Problem: wie ist Involvement nun genau zu definieren, wie wird es in Versuchsreihen operationalisiert? Verschiedenen Forschungsrichtungen gehen dabei völlig unterschiedlich vor. Die wichtigsten Einsatzbereiche sind nach Schenk (2002, S. 265-267):

  • Involvement als Persönlichkeitsmerkmal: Personen mit „high involvement“ neigen grundsätzlich dazu, sich über Entscheidungen mehr Gedanken zu machen. Meist sind dies Personen mit höherem Bildungsgrad, die in ein größeres soziales Netzwerk eingebunden sind und intensiv die Medien nutzen. Analog hierzu ist die Wissenskluftforschung zu sehen, die ebenfalls davon ausgeht, dass es Personen gibt, die stärker von Medien Gebrauch machen als andere und daher auch mehr Vorteile aus dem gestiegenen Medienangebot ziehen.
  • Involvement als Stimulus-Eigenschaft: Diese Interpretation findet vor allem im Marketing Einsatz. Involvement bezieht sich hier nicht auf den Rezipienten, sondern auf das beworbene Produkt. Stark involvierende Produkte sind demnach solche, die von sich aus den Käufer dazu ermutigen, sich vor der Kaufentscheidung erst einmal genauer Gedanken darüber zu machen. Dies ist meist dann der Fall, wenn der Erwerb ein hohes finanzielles oder soziales Risiko darstellt oder das Produkt einen gewissen Identifikationscharakter besitzt. Bei hoch involvierenden Produkten wie z.B. Autos oder Computern muss die Werbung also auch mehr auf diese gedankliche Auseinandersetzung abzielen als z.B. für normale Haushaltswaren (low involvement products).
  • Involvement als individuell interner Zustand: Damit wird das Einnehmen eines bestimmten Standpunktes und das Vorhandensein bestimmter Assoziationen bezeichnet. Beim Einsatz im Marketing wird von hohem Involvement oft schon dann gesprochen, wenn gewisse Produkt- und Marken-Assoziationen überhaupt vorhanden sind. Sherif et al. verwendeten das Konzept des Ego-Involvements, nach dem hohes Involvement erst dann gegeben ist, wenn ein Standpunkt mit einer gewissen Intensität vertreten wird – das Einnehmen alleine genügt noch nicht (Sherif, 1967, S. 133). Hier geht es aber meist weniger um Produkte und Marken, sondern um allgemeine Einstellungen und Werte. Hohes Ego-Involvement äußert sich darin, dass neue Informationen und Argumente schneller abgewiesen werden, wogegen man bei niedrigem Ego-Involvement eine höhere Toleranz gegenüber abweichenden Argumenten besitzt (Sherif et al., 1965, S. 234). Das persönliche Interesse an einem Thema wird oft als Operationalisierung von Ego-Involvement verwendet, auch wenn dies nicht ganz zutreffend ist: hohes Interesse bedeutet nicht unbedingt eine intensive Einnahme eines Standpunktes.
  • Involvement als Stimulus Salience: Involvement wird hier als persönlich empfundene Wichtigkeit eines Objekts bzw. eines Sachverhalts interpretiert. Entscheidend ist nicht unbedingt, ob es wichtig ist, sondern ob es so empfunden wird. Es ist z.B. bei einem Studenten beim Thema Studiengebühren davon auszugehen, dass höheres Involvement anzutreffen ist, wenn auch die eigene Universität betroffen ist. Diese Definition des Involvements ist für die weitere Betrachtung des ELMs die wichtigste; Petty und Cacioppo legten ihren Betrachtungen ebenfalls diese Operationalisierung zu Grunde.

Diese Definitionen sind natürlich nicht die einzigen, zumindest aber mit die am häufigst verwendeten.

Unterschieden wird beispielsweise noch zwischen Personen mit emotions- und mit erkenntnisbezogenem Involvement; erstere können durch emotionale Ansprache zwar langsamer, dafür aber tendenziell stabiler beeinflusst werden, durch kognitive Ansprache etwas schneller aber weniger stabil – bei Personen mit erkenntnisbezogenem Involvement ist dies natürlich genau anders herum (FOCUS-Lexikon: Elaboration Likelihood Model).

Auch herrscht noch keine Einigkeit darüber, ob bei Involvement von einem Zustand auszugehen ist oder von einem kontinuierlichen Prozess.

Das Involvement-Konzept hat also sehr verschiedene Operationalisierungen erfahren, und auch wenn diese Unschärfe gelegentlich kritisiert wird, gewährleistet vermutlich gerade das die breite Anwendbarkeit.

Das Elaboration Likelihood Modell

Zentrale Route, Periphere Route

Das ELM versteht unter der Zentralen Route die elaborierte Informationsverarbeitung, bei der sich der Rezipient intensiv mit einer Information, i.a. einer Medienbotschaft, auseinandersetzt. Er prüft die enthaltenen Argumente, erinnert sich an andere Argumente, zieht selbst Schlussfolgerungen und macht sich ein differenziertes Bild von der Sachlage. Am Ende kann eine Einstellungsänderung seitens des Rezipienten erfolgen, muss aber natürlich auch nicht. Sollte eine solche erfolgen, ist diese also nicht direkt durch die Medienbotschaft selbst entstanden, sondern durch das gedankliche Auseinandersetzen mit ihr. Dem Rezipienten wird ein hohes Maß an Eigenaktivität zugesprochen. In der zentralen Route geht das ELM also von ähnlichen Voraussetzungen aus wie sein Vorgängermodell der „Cognitive Responses“ (Schenk, 2002, S. 253-254).

Das ELM erweitert den Informationsverarbeitungsprozess aber noch um die „Periphere Route“, bei der keine elaborierte Verarbeitung stattfindet, sondern lediglich äußerliche Reize ausgewertet werden, die nicht mit dem eigentlichen Thema zu tun haben. Auch dieser Weg kann allerdings zu einer Meinungsänderung führen. Dass es diese zweite Art der Verarbeitung gibt, klingt nur allzu einleuchtend: da eine elaborierte Auseinandersetzung mit Informationen einen nicht unerheblichen geistigen Aufwand bedeutet und wir täglich mit einer nahezu unüberschaubaren Fülle an Informationen konfrontiert sind, ist es durchaus sinnvoll, sich in weniger relevanten Fällen (low involvement) gewisser Heuristiken zu bedienen. Eine periphere Verarbeitung bedarf, anders als eine zentrale, keines großen Vorwissens, keiner großer Anstrengung und Motivation. Da die eventuell daraus entstehende Meinungsänderung allerdings nicht auf wirklicher Auseinandersetzung mit den Inhalten basiert, ist sie aber auch gegenüber späteren Beeinflussungen wenig resistent. Meinungsänderungen in Folge elaborierter Auseinandersetzung mit dem Thema kommen nur deutlich langsamer und schwerer zu Stande, sind aber in das persönliche Geflecht aus Einstellungen, Normen und Werten integriert und weisen daher eine hohe Widerstandskraft auf und sind dauerhaft.

Zentrale Route: objektiv oder voreingenommen?

Wenn man von der zentralen Route spricht und dabei von elaborierter Auseinandersetzung mit dem Thema die Rede ist, meint man dabei meistens implizit, dass dies auch objektiv geschieht. Das muss allerdings nicht zwingend so sein. Das ELM lässt durchaus auch eine voreingenommene Informationsverarbeitung („biased processing“) zu (Lien, 2000, S. 301-302). In diesem Fall geht man sehr stark subjektiv an die Argumentation heran – wohl gesonnene Argumente werden als wichtiger empfunden, Gegenargumente abgeschwächt oder umgedeutet.

Voreingenomme Informationsverarbeitung tritt meist dann auf, wenn die betreffende Person zum diskutierten Thema bereits vor dem Kontakt mit der persuasiven Botschaft intensiv einen bestimmten Standpunkt einnimmt und nicht gewillt ist, diesen aufzugeben.

Auch wenn man über die persuasive Absicht des Kommunikators gewarnt wurde und ggf. seine Argumente bereits kennt, neigt man dazu, die Sache weniger objektiv anzugehen. Insbesondere neigt man zur Gegenargumentation, wenn man sich vom Kommunikator in eine bestimmte Richtung gedrängt fühlt, dieser einem scheinbar gar keine Wahl lassen will, ob man seinen Standpunkt einnimmt oder nicht.

Letztlich kann es besonders bei Reden auch zur voreingenommen Informationsverarbeitung kommen, wenn kritische Kommentare aus dem Publikum kommen, auf die der Redner nicht souverän reagiert.

Auch wenn bei dieser Herangehensweise der Versuch, die eigentliche Aussage der Botschaft zu erfassen stark in den Hintergrund gedrängt wird, handelt es sich doch um die zentrale Route. Diese behauptet ja nicht, dass man durch die elaborierte Auseinandersetzung mit der Botschaft automatisch auch zu dem richtigen Ergebnis kommt (das „richtige“ Ergebnis würde wegen unterschiedlicher persönlicher Gewichtung der Argumente ohnehin von Person zu Person anders aussehen). Entscheidend ist, dass man sich mit den Argumenten auseinandersetzt (Frey, Stahlberg, 1993, S. 327-260).

Voraussetzungen zum Elaborieren

Damit man sich auf der zentralen Route mit einem Thema beschäftigt, muss zum einen die Motivation dafür vorhanden sein, zum anderen aber auch die persönliche Fähigkeit dazu.

Die Motivation zur Elaboration wird maßgeblich vom Involvement bestimmt, insbesondere also der Eindruck der persönlichen Relevanz des Themas. Dieser Eindruck kann durch äußere Reize verstärkt werden. Beispielsweise kann er bereits dadurch erhöht werden, dass in die zweite Person („Du“) gewechselt wird, der Rezipient also direkt angesprochen wird. In der Werbung wird versucht, die Auseinandersetzung mit den Werbebotschaften dadurch zu fördern, dass Bezüge zum Rezipienten hergestellt werden1. Außerdem steigt die Motivation, sich mit einem Thema auseinander zu setzen, wenn die Anzahl der Quellen, die selbiges thematisieren, hoch ist (Littlejohn, 2002). Auch haben Menschen einen unterschiedlich hohen Bedarf nach Kognitionen (Eckert, 1997, S. 606) – dies wirkt sich natürlich unmittelbar auf die Motivation aus. Die Motivation, sich elaboriert ein Urteil über etwas zu bilden, sinkt, wenn man selbst davon betroffen ist – z.B. wenn es ein Urteil über eine Gruppe zu bilden gilt, der man selbst angehört.

Neben der Motivation müssen natürlich auch die persönlichen kognitiven Fähigkeiten dazu vorhanden sein, um sich elaboriert mit einem Thema befassen zu können. Besonders wichtig ist das Vorwissen, das die jeweilige Person zum Thema mitbringt und auf das er auch aktiv zugreifen kann. Littlejohn veranschaulicht das sehr schön (Littlejohn, 2002, S. 133): „Most students would be more critical of a speech on fashion trends than one on quarks and electrons“ (etwa: „Die meisten Schüler werden einen Vortrag über Modetrends kritischer beurteilen als einen über Quarks und Elektronen.“)

Es gibt noch weitere Faktoren, die die Wahrscheinlichkeit des Elaborierens beeinflussen, die sich grob in Nachrichten- und Rezipientenfaktoren unterteilen lassen.

Auf der Seite der Botschaft können Wiederholungen der Kernaussagen und damit verbunden ein angemessenes Tempo der Informationsaufnahme das Verstehen begünstigen. Insbesondere bei komplexen Themen und einer weniger informierten Zielgruppe ist es wichtig, Argumente zu wiederholen und das Tempo nicht zu hoch zu wählen. Das ist ein Balanceakt: bei zu häufiger Wiederholung oder zu langsamen Tempo entstehen „Ware-Out“-Effekte, Langeweile. Wird ein Argument zu oft gebracht, kann sich der Rezipient gar gedrängt fühlen – voreingenommene Elaboration bzw. verstärkte Gegenargumentation sind das Ergebnis. Ebenso verhält es sich mit der Frage, ob man Schlussfolgerungen explizit ziehen sollte – ist davon auszugehen, dass der Rezipient in der Lage ist, dies selbst zu tun, ist es effektiver, ihn das auch zu lassen; wenn nicht, sollten Schlussfolgerungen explizit gezogen werden.

Auch die Art des Mediums, in dem die Botschaft vorzufinden ist, können die Wahrscheinlichkeit des Elaborierens erhöhen oder senken. Generell fördern Zeitungen bzw. Zeitschriften die elaborierte Informationsverarbeitung, das Fernsehen dagegen ist ein nahezu ausschließlich peripheres Medium. Das Internet gehört zu den eher kognitiven Medien, das Radio liegt irgendwo in der Mitte, aber mit Tendenz richtung peripher. Dies wird durch den bereits erwähnten Geschwindigkeits-Faktor verstärkt: Bei Print- und Onlinemedien kann sich jeder Rezipient das Tempo der Informationsaufnahme selbst vorgeben, wohingegen man sich bei TV und Radio nach den Vorgaben des Mediums richten muss (Schenk, 2002, S. 260).

Hohe Glaubwürdigkeit der Quelle und Expertenmeinungen können bei mittelhohem Involvement zum Elaborieren anregen (Schenk, 2002, S. 260-261).

Auf der Seite des Rezipienten sind es in erster Linie Faktoren, die die momentane Befindlichkeit des Rezipienten betreffen. Besondere Beachtung gilt dabei Untersuchungen, inwieweit die Wahrscheinlichkeit des Elaborierens von der Stimmung abhängt. Allgemein wird davon ausgegangen, dass eine gute Stimmung eine elaborierte Auseinandersetzung mit dem Thema eher behindert (Batra, Stayman, 1990). Unter manchen Umständen kann sie aber wiederum förderlich sein, z.B. wenn der Rezipient davon ausgehen kann, dass die gute Stimmung dadurch nicht beeinträchtigt wird (Wegener et al, 1995). Gerade dieser Punkt scheint noch genauerer Forschung und Systematisierung zu bedürfen.

Befindet man sich in einem Stadium starker Erregung, neigt man zu peripherer Informationsverarbeitung, eine elaborierte Auseinandersetzung wird also eher behindert (Lien, 2000, S. 303). Dass es die elaborierten Informationsverarbeitung außerdem behindert, wenn man von der „Außenwelt“ abgelenkt wird, dürfte klar sein.

Daneben hat auch die Körperhaltung einen Einfluss auf die Wahrscheinlichkeit des Elaborierens: Liegt oder sitzt man bequem, fällt es einem leichter, sich intensiv mit einem Thema zu beschäftigen, als wenn man steht oder geht (Petty, 1983, S. 209-222).

Die Persuasion

Das Elaboration Likelihood Modell besagt nicht nur, dass es zwei Routen in der Informationsverarbeitung gibt und welche Route wann eingeschlagen wird, sondern trifft auch Aussagen darüber, wie die Persuasionskraft von Botschaften davon beeinflusst wird, welche Route eingeschlagen wird.

Verschiedenste Faktoren haben einen Einfluss darauf, wie überzeugend eine Botschaft auf einen Rezipienten wirkt. Eine Betrachtung, die eine möglichst vollständige Liste dieser Faktoren anstrebt, würde diesen Rahmen natürlich sprengen. Interessant in Hinblick auf das ELM sind inbesondere jene Faktoren, die sich bei zentraler und peripherer Verarbeitung unterschiedlich auswirken.

Der komplette Bereich der äußeren Reize spielt wie bereits erwähnt nahezu exklusiv in der peripheren Route eine Rolle. Dazu gehören Punkte wie schöne Bilder, Musik, Kameraperspektive und dergleichen mehr (Lien, 2000, S. 304-304).

Auch „Aufwärtsvergleiche“ werden zu den peripheren Reizen gezählt. Von Aufwätsvergleichen ist z.B. die Rede, wenn die Tatsache, dass eine bereits bekannte Person einen bestimmten Standpunkt einnimmt bzw. ein Produkt verwendet, als Argument für diesen Standpunkt bzw. dieses Produkt verwendet wird (Schenk, 2002, S. 261). Dies muss sich natürlich nicht nur auf Personen beziehen.

Die Anzahl der Argumente kann unterschiedliche Auswirkungen auf die Persuasionskraft haben. Wird die Botschaft rein peripher ausgewertet, zählt die reine Anzahl als Reiz. Da keine genauere Auseinandersetzung mit den einzelnen Argumenten erfolgt, spielt es folglich auch keine Rolle, ob es sich dabei um starke oder schwache Argumente handelt – die reine Masse zählt. Wird die Botschaft dagegen elaboriert verarbeitet, kann es dagegen sogar kontraproduktiv sein, wenn um jeden Preis möglichst viele Argumente unabhängig von deren Qualität untergebracht werden – hat man starke Argumente, sollte sich die Botschaft auf diese konzentrieren, die Überzeugungskraft sinkt eher, wenn diese mit schwachen Argumenten „verwässert“ werden (Schenk, 2002, S. 261).

Der selbe Sachverhalt hat natürlich auch eine Wirkung auf die Überzeugungskraft der einzelnen Argumente an sich: während auf der peripheren Route praktisch jedes Argument etwa gleich viel, mäßig viel, zur Überzeugung beiträgt, haben bei der zentralen Route starke Argumente naturgemäß mehr Wirkung als schwache. Botschaften mit eher schwachen Argumenten wirken in der zentralen Route also eher weniger überzeugend, während bei Botschaften mit viel starken Argumenten bei Verarbeitung in der zentralen Route sogar eine höhere Persuasionsrate entstehen kann als bei peripherer Verarbeitung (die anfängliche Aussage, Meinungsänderungen durch die zentrale Route kämen nur viel langsamer und schwerer zu Stande, ist dahingehend zu relativieren) (Schenk, 2002, S. 257-258).

Verfasst man eine persuasive Botschaft, ist auch bei der Entscheidung, ob die Argumentation einseitig gehalten werden oder Pro- und Kontraargumente berücksichtigen soll, zu beachten, ob eher die periphere oder die zentrale Route angesprochen werden soll. Bei elaborierter Verarbeitung erhöht zweiseitige Argumentation die Glaubwürdigkeit der Botschaft, wirkt sich also positiv auf die Überzeugungskraft der Botschaft aus. Bei peripherer Verarbeitung kann die Einbeziehung von Gegenargumenten der Gesamtwirkung eher abträglich sein. Dieser Punkt zeigt sehr schön, wie auch frühere Ergebnisse der Persuasionsforschung mit dem ELM interpretieren lassen: ähnliche Befunde gab es bereits in den Yale Studies (Hovland et al., 1949).

Quellenfaktoren, insbesondere die Glaubwürdigkeit der Quelle sind hauptsächlich periphere Reize. Ist die Quelle glaubwürdig, steigt bei peripherer Verarbeitung die Überzeugungskraft der Botschaft, bei elaborierter Verarbeitung bleibt sie dagegen nahezu unverändert (Schenk, 2002, S. 260-261).

Die Stimmung, in der sich der Rezipient gerade befindet, hat ebenfalls einen nicht unwesentlichen Einfluss darauf, wie eine Botschaft auf ihn wirkt. In der peripheren Route ist die Stimmung ein äußerer Reiz – positive Stimmung wirkt sich unmittelbar in eine positivere Einstellung dem Thema bzw. dem Produkt gegenüber aus. Aber auch bei elaborierter Auseinandersetzung kann sich eine positive Stimmung auswirken: (unabhängig von der bereits erwähnten Tatsache, dass eine sehr positive Stimmung das Elaborieren eher unwahrscheinlicher macht) die Stimmung beeinflusst die Gedanken, die man sich zum Thema macht, so dass man in diesem Fall eher zu positiven Gedanken neigt und damit auch das Gesamturteil etwas positiver ausfallen dürfte – die Stimmung wirkt dann also nur indirekt auf die Überzeugungskraft.

Das ELM – visualisiert

Visualisierung des Elaboration-Likelihood-Modells

Elaboration Likelihood-Modell nach PETTY, R.E., J.T. CACIOPPO, 1986, S.4
Grafik aus Schenk, M. (2002). Medienwirkungsforschung (S. 255). Tübingen: J.C.B. Mohr
Kleine Änderungen zur Vermeidung von Missverständnissen vorgenommen
(Verschiebung eines falsch gesetzten Pfeils)

Das dargestellte Modell soll die Grundkonzepte des ELM nocheinmal visualisieren. Die linke Spalte stellt die zentrale Route dar, die rechte die periphere. Das Flussdiagramm macht deutlich, dass zu einer elaborierten Auseinandersetzung sowohl die Motivation, als auch die Fähigkeit zur Verarbeitung vorhanden sein muss. Nur wenn beides vorhanden ist, die Botschaft entweder überwiegend positive oder negative Kognitionen hervorruft und diese letztlich auch in die persönliche kognitive Struktur integriert wird, kann eine dauerhafte Einstellungsänderung erfolgen. Ansonsten ist bestenfalls eine kurzfristige Meinungsänderung auf der peripheren Route möglich. Diese jeweilige Meinungsänderung muss natürlich nicht unbedingt im Sinne der persuasiven Botschaft sein – auch der Boomerang-Effekt, das Einnehmen einer der Botschaft entgegengesetzten Haltung, ist möglich.

Fazit

Nach über 20 Jahren zählt das Elaboration Likelihood Modell nach wie vor zu den verbreitetsten seiner Art. Das Grundkonzept des ELM, die Unterscheidung zwischen elaborierter und peripherer Informationsverarbeitung, hat allgemeine Anerkennung gefunden. Noch nicht geklärt ist allerdings, ob diese beiden Routen tatsächlich so unabhängig voneinander existieren, wie dies im ELM beschrieben wird (die Verfasser relativierten diese strikte Trennung ohnehin recht schnell wieder). Wahrscheinlicher ist, dass beide Routen in gewissem Sinne gleichzeitig eingeschlagen werden, oder sich zumindest regelmäßig abwechseln, wie dies z.B. im Modell der Heuristisch-Systematischen Informationsverarbeitung der Fall ist. Wie dies genau erfolgt, wird sicherlich noch Stoff zukünftiger Forschungen sein.

Interessant ist, dass das ELM weniger versucht, das Ergebnis persuasiver Kommunikation zu beschreiben, sondern vielmehr den Prozess, der dazu führt. Diese prozessorientierte Herangehensweise deckt sich auch mit vielen anderen Forschungen der aktuellen Werbeforschung.

Das ELM wurde viel verwendet, um Effekte der Werbung und des Marketings zu erklären und hat darin gute Dienste geleistet: es stellt eine gute Basis für Betrachtungen dar, ist im Kern einfach zu verstehen und auch erweiterbar. Neben der Werbung ist es auch für viele andere Bereiche der Kommunikationsforschung anwendbar.

Als Beispiel dafür, wie das ELM heutzutage angewendet wird, sei die Studie „eELM: A Replication and Refinement of the Elaboration Likelihood Model for Computer mediated environments“ (Hershberger, 2002), die zu den jüngsten Anwendungen des ELMs gehört. Untersucht wird die Werbewirkung im Internet. Das ELM wird um mehrere Faktoren erweitert, insbesondere um „Erfahrung mit dem Netz“ („web experts“ zeigen sich resistenter gegenüber peripheren Reizen bei Bannerwerbung), und „Vertrauen ins Netz“ (differenziert in Vertrauen in andere Benutzer, in Organisationen und in die Technik) und der Einfluss verschiedener Eigenschaften von Bannerwerbung auf den Persuasionsprozess untersucht (neben Attributen wie Farbe, Animation und Informationsgehalt auch Kontexteigenschaften wie die Einstellung des Rezipienten zur Website, auf der das Banner platziert ist). Dieses Beispiel soll verdeutlichen, wie das ELM ohne Probleme erweitert und spezialisiert werden kann, um weitere Formen der Werbewirkung zu untersuchen.

In vielen Bereichen sind aber noch weitere Forschungen notwendig. Als Beispiel sei nur der Einfluss der Stimmung auf den Persuasionsprozess genannt. Auch die Abhängigkeiten der einzelnen Faktoren untereinander sind noch nicht völlig erkundet.

Literaturverzeichnis

  • Batra, R., & Stayman, D. M. (1990). The role of mood in advertising effectiveness. Journal of Consumer Research, 17, 203-214.
  • Cacioppo J. & Petty R. (1986). Communication and persuasion. New York: Springer Verlag.
  • Cacioppo J. & Petty R. (1981). Attitudes and Persuasion: Classic and contemporary approaches. Dubuque, Iowa: Brows.
  • Donnerstag, J. (1996). Der engagierte Mediennutzer: Das Involvement-Konzept in der Massenkommunikationsforschung. München: R.Fischer.
  • Eckert, J.A. & Goldsby, T.J. (1997). Using the Elaboration Likelihood Model to Guide Customer Service-Based Segmentation. International Journal of Physical Distribution and Logistics Management, 27, 600-615
  • FOCUS-Lexikon für Mediaplanung Markt- und Mediaforschung, [Online]. Erhältlich: http://medialine.focus.de [1. Oktober 2003]
  • Frey, D., Stahlberg, D. (1993). Das Elaboration-Likelihood-Modell von Petty und Cacioppo. In Frey, D., Irle. M. (Hrsg.), Theorien der Sozialpsychologie Bd. I: Kognitive Theorien. Bern: Verlag Hans Huber
  • Hersherger, E.K. (2002). eELM: A Replication and Refinement of the Elaboration Likelihood Model for Computer Mediated Environments, [Online]. Erhältlich: http://ehershberger.tripod.com/papers/ hershbergerproposal.pdf [1. Oktober 2003].
  • Hovland, C. & Lumsdaine, A., & Sheffield, F. (1949). Experiments on Mass Communication. New Haven: Yale University Press
  • Lien, N. H. (2001). Elaboration Likelihood Model in Consumer Research: A Review, [Online]. Erhältlich: http://nr.stic.gov.tw/ejournal/ProceedingC/ v11n4/301-310.pdf [1. Oktober 2003]
  • Littlejohn, S.W. (2002). Theories of human communication. Stamford: Wadsworth Publishing.
  • Krishnamurthy, P., & Sujan, M. (1999). Retrospection versus anticipation: The role of ad under retrospective and anticipatory self-referencing. Journal of Consumer Research, 26, 55-69
  • Kunczik, M. & Zipfel, A. (2001). Publizistik. Köln: Böhlau.
  • Nebergall, R.E. & Sherif, C.W. & Sherif, M. (1965). Attitude and attitude change. Philadelphia: W. B. Sunders Company
  • Petty, R. E. & Wells, G. L. & Heesacker, M. & Brock, T. C., & Cacioppo, J. T. (1983). The effects of recipient posture on persuasion: A cognitive response analysis Personality and Social Psychology Bulletin, 9, 209-222
  • Richardson, E. (2002). Elaboration Likelihood Model, [Online]. Erhältlich: http://eworld.ericrichardson.com/verbal/elm [1. Oktober 2003]
  • Schenk, M. (2002). Medienwirkungsforschung. Tübingen: J.C.B. Mohr
  • Sherif, C.W. & Sherif, M. (1967). Attitude, Ego-Involvement, and Change. New York: John Wiley & Sons
  • Wegener, D. T. & Petty, R. E., & Smith, S. M. (1995). Positive mood can increase or decrease message scrutiny: The hedonic contingency view of mood and message processing. Journal of Personality and Social Psychology, 69, 5-15.