Jano: Verfahrensvorschlag zur Erstellung eines Assessmentkatalogs:
1   P: Assessment-Ziele definieren (bzw. Problemraum, im Bestfall wäre das ein transparent konsensierter (formaler) Minimalkonsens)
2a D: Topics sammeln nach verschiedenen (individuellen/zweckorientierten) Schemata und Merkmalskategorien ausdifferenzieren, die es dazu gibt; auf Eindeutigkeit achten, möglichst kurz halten - ist besser zu kategorisieren/zu sortieren
2b D: Topics in Qualitätsaspekte zur Struktur-, Prozess- und Ergebnisqualität einteilen oder direkt daraus generieren
2c D: Erhebungsmethode festlegen (Screening Diskussionssysteme, Manualsichtung, Usabilitystudien etc., Entwicklerfragebogen, Test)
3   S: Sortieren nach Qualität und  Erhebungsmethode, daraus ergeben sich z.B. Topicblöcke, z.B. für Entwicklerfragebogen + Screeningleitfaden
4   A: Abstimmung; Rangfolge bilden via aufsummierter Einzelbewertungen zur Wichtigkeit/Relevanz (z.B. +++), um Arbeitsaufwand/Fragebogenlänge im Verhältnis zum Nutzen/zur Zumutbarkeit zu halten

w.z.b.w. (Stationenkonzept)


Anmerkung zum Vorgehen: 
Besser ginge das Einteilen der Topics via interaktiver Tabellenkalkulation (zB google docs) zu bearbeiten, wie am Anfang vorgeschlagen, weil man dann nicht immer alles wieder neu manuell sortieren muss, was wiederum Zeit klaut. So kann hinter jedem Topic bzgl. der Programmbewertung eine Einteilung in Qualitätsaspekt und Erhebungsmethode erfolgen, ggf. können Unstimmigkeiten übersichtlich festgehalten werden und man kann das dann in der Sortierphase jeweils nach gewünschten Aspekten sortieren. Am Ende der Sortierung wäre dann auch klar, welche Aspekte z.B. in einem strukturierten Screeningleitfaden oder welche in möglichst eindeutig formulierte Fragen mit möglichst gegenstandsnahen Antwortkategorien umgewandelt werden müssen, weil sie im Rahmen der geplanten standardisierten Entwicklerbefragung erhoben werden. Ggf. sollten bestimmte Aspekte mit jeweils anderen Methoden oder durch Zweitbeurteiler im Assessmentprozess gegengeprüft werden.


Formalen Minimalkonsens für den Ziel-/Problemraum konsensieren?
***************************************************************************************************************************
1. Zieldefinition
***************************************************************************************************************************

DISKUSSION:
***************************************************************************************************************************
2a Topicsammlung
***************************************************************************************************************************

***************************************************************************************************************************
2b Einteilung in Qualitätsaspekte der formativen (Struktur- und Prozessqualität) und der summativen Evaluation (Ergebnisqualität)
***************************************************************************************************************************
FORMATIVE EVA
***

SUMMATIVE EVA
***************************************************************************************************************************
2c. Erhebungsmethode zur Erfassung relevanter Infos zur Struktur- und Prozessqualität festlegen 
***************************************************************************************************************************
Anmerkung: die Ergebnisqualität (summative Eva) ist methodisch und zeitlich von der formativen Eva zur Struktur- und Prozessqualität zu trennen. Disco Delta ist also im Grunde ein Assesmentverfahren zur formativen Evaluation von Diskussionssystemen. Die Ergebnisqualität wird in der Regel mit spezifischen experimentellen Versuchsplänen nach der Implementierung und der formativen Evaluation untersucht.


Screening Diskussionssysteme (externe Usability-Studie)
Manualsichtung, interne Usability-Studien? etc.
Entwicklerfragebogen
Test