Eine Projektevaluation sollte laut der Teilnehmenden vom Anfang bis Ende des Projektes eingeplant und durchgeführt werden. Diese Evaluationen sind wichtig, um durch adaptives Management während des Projektverlaufes sowie für zukünftige Projekte zu lernen. Notwendig dafür ist die klare Definition von Projektzielen, die sowohl wissenschaftliche als auch gesellschaftliche Dimensionen haben können. Hier sollten alle Beteiligten, Wissenschaftler und Bürger, in die Evaluation integriert werden, um darzulegen, wie die Arbeit am Projekt erlebt wurde und welches Wissen und andere Erkenntnisse gewonnen wurden. Sowohl Eigenevaluation als auch Fremdevaluation sind möglich. Eine Zwischenevaluation in einer frühen Phase des Citizen Science-Projektes kann hilfreich sein, um ggf. Modifizierungen am Konzept durchzuführen. Dabei ist zu beachten, dass eine Evaluation zeitaufwendig ist und Wissenschaftler unter Publikationsdruck stehen. Es sollte auch nicht vergessen werden, dass Projekte auch mal scheitern können. Hier sollten mögliche Exitstrategien diskutiert werden.[1]
Evaluierungskriterien
Evaluierung kann auf unterschiedlichen Ebenen stattfinden, begonnen von der Beantwortung der eigentlichen wissenschaftlichen Frage des Citizen Science Projekts bis hin zur Betrachtung des Mehrwertes auf verschiedenen Ebenen (Tabelle).
Oberziel |
Unterziel |
Methoden |
Bemerkungen |
Wissenschaft |
Wurden die wissenschaftlichen Projektziele erreicht? |
Disziplinäre wissenschaftliche Begutachtung |
|
|
Gab es einen Mehrwert durch die Beteiligung von Citizen Scientists? |
Fragebogen an Initiatoren |
|
|
War das Projekt wissenschaftlich innovativ? |
Disziplinäre wissenschaftliche Begutachtung |
|
Partizipation |
Wie viele Beteiligte wurden erreicht? |
Zählen |
|
|
Wie ist der Kreis der Beteiligten zusammengesetzt (diversity)? |
Abfrage bei Beteiligten |
Auf Datenschutz achten |
|
In welche Phasen des Projekts wurden die Beteiligten einbezogen, wie stark waren sie involviert? |
Fragebogen |
|
|
Wie zufrieden waren die Beteiligten? |
Fragebogen |
|
Bildung |
Wurde das Verständnis der Beteiligten für Wissenschaft und Forschungsprozesse verbessert (scientific literacy)? |
Vorher- nachher-Befragung |
Erfordert zusätzliche Ressourcen und eigenes Forschungsdesigns |
|
Lieferte das Projekt einen Beitrag zur Bildung für Nachhaltige Entwicklung (BNE)? |
z.B. Monitoring über Indikatoren (im Rahmen der nationalen Bildungsberichterstattung) Rahmen der nationalen Bildungsberichterstattung) |
Erfordert zusätzliche Ressourcen und eigenes Forschungsdesign |
Kommunikation |
War die Kommunikation zwischen den Projektbeteiligten erfolgreich? |
Fragebogen |
|
|
Wurde (mediale) Aufmerksamkeit für das Thema geschaffen (Wissenschaftskommunikation)? |
Pressespiegel |
Zusätzliche Ressourcen nötig |
Relevanz |
Wurden praktische Probleme oder gesellschaftlich relevante Forschungsfragen behandelt? |
Workshop / Dialogforum / Abschlussdiskussion mit gesellschaftlichen und politischen Akteuren |
|
|
Wie groß war die Wirksamkeit (impact) des Projekts? |
|
Erfordert zusätzliche Ressourcen und eigenes Forschungsdesign |
Schnittstelle Wissenschaft / Gesellschaft |
Kam es zu einem Austausch zwischen Wissenschaft und Gesellschaft, bzw. gab es einen Input für die Wissenschaft aus der Gesellschaft? |
|
Erfordert zusätzliche Ressourcen und eigenes Forschungsdesign |
|
Wurden über die Projektlaufzeit hinausgehende Schnittstellen zwischen Wissenschaft und Gesellschaft etabliert? |
Vorher- nachher-Langzeit Analyse |
Erfordert Ressourcen und Kontinuität |
Politische Sensibilisierung |
Kam es zu einer (politischen) Mobilisierung der Beteiligten? |
Vorher- Nachher-Befragung |
Erfordert zusätzliche Ressourcen und eigenes Forschungsdesign |
|
Wurde Aufmerksamkeit für das Projektthema erzeugt und übernahmen die Projektbeteiligten verstärkt Verantwortung (z.B. im Naturschutz)? |
Vorher- Nachher-Langzeit Analyse |
Erfordert Ressourcen und Kontinuität |
|
Wurden die Beteiligten durch das Projekt in die Lage versetzt, ihre Anliegen besser zu verwirklichen (empowerment)? |
Vorher- Nachher-Langzeit Analyse |
Erfordert Ressourcen und Kontinuität |
|
|
|
Quellen
- ↑ Richter, A., Pettibone, L., Rettberg, W., Ziegler, D., Kröger, I., Tischer, K., Hecker, S., Vohland, K. &
Bonn, A. (2015): GEWISS Auftaktveranstaltung Dialogforen Citizen Science in Leipzig 17./18.09.2014.
GEWISS Bericht Nr. 3. Deutsches Zentrum für Integrative Biodiversitätsforschung (iDiv) Halle-Jena-
Leipzig, Helmholtz-Zentrum für Umweltforschung – UFZ, Leipzig; Berlin-Brandenburgisches Institut
für Biodiversitätsforschung (BBIB), Museum für Naturkunde, Leibniz-Institut für Evolutions- und
Biodiversitätsforschung – MfN, Berlin. Online verfügbar unter http://buergerschaffenwissen.de/sites/default/files/assets/dokumente/gewiss_bericht3_auftakt-2.pdf - ↑ Ziegler, D., Brandt, M., & Vohland, K. 2015. Workshop: (Weiter)Entwicklung von Kriterien und Indikatoren für Citizen Science in der Forschung. In: Pettibone, L., Ziegler, D., Bonn, A. & Vohland, K., Hrsg. (2015). GEWISS Dialogforum: Forschungsförderung für Citizen Science. GEWISS Bericht Nr. 7. Deutsches Zentrum für Integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig, Helmholtz-Zentrum für Umweltforschung – UFZ, Leipzig; Berlin-Brandenburgisches Institut für Biodiversitätsforschung (BBIB), Museum für Naturkunde, Leibniz-Institut für Evolutions- und Biodiversitätsforschung – MfN, Berlin. Online verfügbar unter http://buergerschaffenwissen.de/sites/default/files/assets/dokumente/gewiss_7_foerderbericht.pdf