Zurück zur Wiki-Seite der AG Meinungsfindungstool:
http://wiki.piratenpartei.de/AG_Meinungsfindungstool
synchrone/mündl. Kommunikation:
Mumble-Raum AG Meinungsfindungstool [Pfad: Bund/Arbeitsgemeinschaften/Technik (IT)]
Mumble-Direktlink: http://is.gd/yN0dgS
Dies ist ein Notizpad und keine offizielle Äußerung der Piratenpartei!
This is a note pad and NOT an official statement of the Pirate Party!
Mumble-Arbeitstreffen der AG Meinungsfindungstool:
Donnerstag, den 16.10.2014, 21:00 - 22:30 Uhr
== Teilnehmer ==
Tagesordnung?
- Bestandsaufnahme:
- d!sco Delta-Fragenkatalog-Erwartungen: https://meinungsfindungstool.piratenpad.de/discoDelta-Fragenkatalog
- Folgende Aufteilung könnte man da zu der Infoerhebung und Befragung zu D!sco delta auch wählen, wobei nicht alle Aspekte der Evaluation zur gleichen Zeit oder mit der gleichen Methodik erhoben werden können:
- 1. Strukturqualität, z.B. v.a. technische Details, Konstruktionshintergrund, Konsensdefinition, Format Darstellung/Aufbereitung des Ergebnisses, Zielgruppe, moderiert, strukturiert/unstrkuturiert, mit/ohne Entscheidungsverfahren, Integrierbarkeit in Gesamtprozess etc.
- 2. Prozessqualität, z.B. Eignung/Praktikabilität, händelbare Gruppengröße, Usability, Zufriedenheit, technische Probleme/Störungen im Betriebsablauf, Ansprechbarkeit der Entwickler, Adaptierbarkeit, wie lange braucht das Tool Leute heranzuführen die Sachkenntnisse mitbringen, wie viele Beiträge der Diskussion werden gebraucht um einen Konsens zu finden. wie lange dauert eine Diskussion bis das Endergebnis angenehrt wurde. etc.
- 3. Ergebnisqualität, z.B. Diskussionsqualität, Diskusiongeschwindigkeit, Arbeitsaufwand, Skaliebarkeit, Entscheidungsqualität, Endscheidungsgeschwindigkeit, Nutzungsdichte/Einzugsbereich, Zufriedenheit, Trolling, Störanfälligkeit etc.
- Abgleich mit entstandenen Daten aus d!sco und bestehenen Theorien / Vorhersagen?
- Alleinstellungsmerkmale der Tools?!!
- Diskussionsqualität, z.B. Häufigkeit von Todschlagargumenten
- 1. Zieldefinition
- bloxx
- 1. Gemeinsamkeiten und Unterschiede der Tools aufzeigen mit dem Ziel, einen Überblick über die Aufgaben und Herausforderungen für eine verbindende Ontologie zu bekommen.++
- 2. (erst, wenn die Prototypen laufen) Abgleich von Theorien und Vorhersagen über die Diskussionsmoral mit den praktischen Erfahrungen aus d!sco und den Prototypen
- 3. Vergleich und Spezifikation der Fälle, für die die Tools ausgelegt sind (=Funktionsebenen von Jano? ja, dein Punkt impliziert aber m.M.n. auch noch die Herausarbeitung von kontextspezifischen Unterschieden zwischen den Verfahren++:)
- -> für die Integration in eine "Workflow"-Ontologie (oder anders bezeichnet), die Tools mit verschiedenen Bereichen verknüpft
- z.B. große/kleine Gruppen, Brainstorming, Argument Mapping, Dokumenterstellung, ...
- Aber eher keine Bewertung, wie gut die Tools diese Fälle tatsächlich erledigen - das wäre Aufgabe von (2.)
- Nicht fragen: Was ist das beste Diskussionssystem?++ ...sondern fragen: welche Diskussionssysteme ermöglichen nicht nur Energievernichtung, sondern auch wirksame Ergebnisse...
- Jano:
- struktur-/funktions- und userorientiertes Screening von Diskussionssystemen (disco ist nicht nur ein "Fragenkatalog" - besser ist Assessmentkatalog über Qualitätsaspekte bzw. ein Assessentsystem mit mehreren Erhebungsmethoden, z.B. Beobachtung, exp. Probe, Fragebogen, Integrationsdiskurs)
- funktionsorientierte Typenbildung
- Profil von Diskussionssystemen
- externe/interne Usabilityforschung
- Integration von Diskussionssystemen in übergreifendes Gesamtkonzept eines umfassenden Konvergenzverfahrens (workflow-ontology)
- Zusammenstellung von Diskussionssystemen und Prototypen, die Gesamtprozess abdecken
- Diskussionssystem auf gleicher Funktionsebene ergeben modulare Variabilität
- Fehlerscreening bzw. Erkennen offener Entwicklungsfragen
- Qualitätssicherung
- Das sind alles relevante Aspekte. Aber ich sehe mich außer Stande zu unterscheiden, was davon operativ zu realisieren ist - denn vieles scheint mir eher "metatheoretisch". Meine Bitte an Jana: wie sollen die ersten Schritte konkret aussehen?
- /:
- Standardisierte, klare konzeptuelle Profilierung von beliebigen Diskussionssystemen zwecks Erleichterung ihrer Vernetzung mit anderen Diskussionssystemen – vom Groben in's Detailierte gehend
- Sorge bzgl. Input der Diskussionssystem-Entwickler:
- 1. Das große An-einander-Vorbeisprechen
- 2. Das große Schönreden der einzelnen Diskussionssysteme seitens der jeweiligen Entwickler
- Schlüsse:
- Super einfache, allgemeinverständliche Sprache
- Wolfgang
- Vergleichbare Beschreibung der relevanten Tools mit Zielstellung Entwicklung "gemeinsam Politik verändern".
- Verfahrensvorschlag (JanO) für einen Diskurs zur Erstellung eines Assessmentkatalogs:
1. Assessment-Ziele (bzw. Problemraum, im Bestfall wäre das ein formaler Minimalkonsens gewesen)
2a. Topics sammeln und Kategorien ausdifferenzieren, auf Eindeutigkeit achten, möglichst kurz halten - ist nachher besser zu sortieren
2b. Topics in Qualitätsaspekte zur Struktur-, Prozess- und Ergebnisqualität einteilen oder direkt daraus generieren
2c. Erhebungsmethode für Topics bestimmen (Screening Diskussionssysteme, Manualsichtung etc., Entwicklerfragebogen, Test)
3. Sortieren nach Qualität und Erhebungsmethode, daraus ergeben sich Topicblöcke für Entwicklerfragebogen und Screeningleitfaden
4. ggf. Prioritisierung über Abstimmung zur Wichtigkeit/Relevanz, um Arbeitsaufwand/Fragebogenlänge im Verhältnis zum Nutzen bzw. zur Zumutbarkeit zu halten
w.z.b.w (Stationenkonzept)
Hallo Wolfgang, Oliver und Paul,
der Ablauf hier hätte auch schon Ende August stehen können, wären da nicht all die unerwartete Ignoranz und die Widerwärtigkeiten gewesen, die unsere Kommunikation und meine Schaffenskraft ausgehebelt haben. Ich habe im weiteren Verlauf leider keine Ressourcen mehr, um das mit euch derartig mühselig wie die letzten Wochen davor und auch heute zu bearbeiten, v.a. mit einem solch andauerndem Zeit- und noch schlechter derartigem Engergieverlust. Ihr könnt es gern nach dem obigen Schema ohne mich versuchen und ich schau mir das später an und trage ggf. den Rest, der mir einfällt zur Skalierungs-, Funktions- und Kontextanalyse nach. Tut mir leid, aber ich bin auch nur ein Mensch und meine zeitlichen Ressourcen sind mittlerweile sehr begrenzt, da ich bald Abgabetermine für eigene Arbeiten habe. Ich habe hier im Grunde schon mehr Zeit und Energie investiert und Kraft verloren, als ich eigentlich habe und ich sehe das dann auch nicht mehr ein, wenn ich hier gleichzeitig behandelt werde, wie ein Mensch zweiter Klasse, der es am Ende nicht mal wert ist, dass man mit ihm mal ein klärendes, persönliches Gespräch führt oder den man gezielt und böswillig wochenlang ignoriert (geht an O.). Das ist für mich kein faires Arbeitsklima mehr, da geht auch viel zu viel verloren, weil man sich nicht dann mehr versteht, und es handelt sich für mich dabei auch nicht um eine menschenwürdige Kommunikation. Ich investiere nirgenswo gern Energie, wo meine Menschenwürde entsprechend mit Füßen getreten wird. Ich bin keine Batterie, die hier zentral Energie zuführt und dann behandelt werden kann, wie ein Stück Dreck oder ein eigentlich erforderliches Bankgeschäft, dem man entgegen der eigenen Vorteile in einer Tour Zweifel, Abwertung und Abfuhren auf einfachste Anfragen und Vorschläge erteilt, was auch nicht mehr viel mit rationalem Handeln zu tun hat...
Wünsche euch bei der weiteren Entwicklung von d!sco delta viel Erfolg!
Walk On... https://www.youtube.com/watch?v=4HJ9HPp-cxs&index=30&list=PLyiYGLM-5XtzQzBaR-SHwFOBqZgqwUG6r
@Wolfgang: Vielleicht kennst du das, dass man in Multiple Choice-Klausuren nur auf Falschantworten Punktabzüge bekommt, nicht aber auf fehlende Angaben/Aussagen? Damit verhindert man wilden Aktionismus beim Anworten und dass im worst case fast durchgängig nur geraten wird, und man sich ungerechtfertigt mit minimalem Hintergrundwissen durchbeißen kann. Soll heißen, man vermittelt damit eher zurückhaltendes Antworten, frei nach dem Motto: "Wenn man keine Ahnung hat - einfach mal die Klappe halten!"
Gruß,
Jano