Citizen Science

Get Started. It's Free
or sign up with your email address
Rocket clouds
Citizen Science by Mind Map: Citizen Science

1. Terminologie

1.1. citizen science

1.1.1. science by the poeple / science with the people

1.2. community science

1.2.1. science for the poeple

1.3. Schwarmintelligenz

1.4. academic vs. commercial crowd-sourcing

1.5. crowd-sourcing / crowdsourcing / crowd sourcing

1.6. crowd-funding / crowdfunding

1.7. communitiy sourcing

1.8. crowd creation

1.9. crowd voting

1.10. peer production

1.11. Clickworker

1.12. NICHT: VRE, Web 2.0, Wikipedia, Kollaborative Arbeitsumgebung ...

2. Definitionsansatz (unvollständig!)

2.1. geisteswiss. Ausrichtung oder Forschungsfrage

2.2. frei zugängliche/definierbare Gruppe an Mitarbeitenden

2.2.1. div. Faktoren

2.2.1.1. Motivation

2.2.1.2. Zielgruppe

2.3. klar definierte / strukturierte Aufgabe

2.3.1. Anreichern oder Interpretieren von Quellenmaterial

2.4. skalierbare Arbeitsaufgabe (Menge / Anforderung)

2.5. Feedback

3. key factors

3.1. Mitgliederwerbung

3.2. Bildungsauftrag

3.3. Mitarbeitendenmotivierung / -management

3.3.1. Rollenzuweisung

3.3.2. Wettbewerb

3.3.3. Belohnungen

3.3.4. Interesse

3.4. Qualität vs. Quantität

3.5. Renommee der Auftraggeber

3.6. Integration der Mitwirkenden

3.7. rechtliche Struktur: CC, OA

3.8. Zugang zu Forschungsdaten

3.9. Qualitätsmanagement

4. Ziele

4.1. Wissensgenerierung

4.2. Geld sparen?

4.3. Zeit sparen

4.4. schwer zugängliches Wissen erschließen

4.5. Wissens- und Kompetenzenvermittlung

4.6. Erweiterung der Methoden

4.7. Demokratisches Ideal: "Jeder Bürger ist Wissenschaftler"

5. Kategorisierungsebenen

5.1. Material

5.1.1. geospatial

5.1.2. text

5.1.3. numerical / statistical information

5.1.4. sound

5.1.5. image

5.1.6. video

5.1.7. ephemera / cultural heritage

5.2. Verfahren

5.2.1. collaborative tagging

5.2.2. linking

5.2.3. correcting / modifying content

5.2.4. transcribing

5.2.5. recording / creating content

5.2.6. commenting / responding / preferring

5.2.7. categorising

5.2.8. cataloguing

5.2.9. contextualisation

5.2.10. mapping

5.2.11. georeferencing

5.2.12. translating

5.3. Aufgabe

5.3.1. mechanical

5.3.2. configurational

5.3.3. editorial

5.3.4. synthethic

5.3.5. investigative

5.3.6. creative

5.4. Ergebnis

5.4.1. original text

5.4.2. transcribed text

5.4.3. corrected text

5.4.4. enhanced text

5.4.5. transcribed music

5.4.6. metadata

5.4.7. structured data

5.4.8. knowledge / awareness

5.4.9. funding

5.4.10. synthesis

5.4.11. composite digital collections with multiple meanings

5.5. Methoden

5.5.1. Gamification

6. Projekt-Typen nach Wiggins/Crowston (Nawi)

6.1. Action

6.1.1. sozialer/politischer Aktionismus, nicht primär wissenschaftlich, kleinräumig erfolgreich, awareness-raising, bottom-up Zugang, wenig Technologie, mehr face-to-face

6.2. Conservation

6.2.1. Erhaltung von xyz im Fokus, regional orientiert, Grundlagendatenerhebung, awareness-raising, Langzeitprojekte, Technologieeinsatz wie auch face-to-face

6.3. Investigation

6.3.1. wiss. Forschungsziele, die über Datensammlung aus phys. Umgebung erreicht werden sollen; typ. citizen science; lehrhafter Hintergrund; regional-international; Validierungsmechanismen (entry form validation, algorithmic flagging for expert review); top-down Organisation; oft umfangreich und aufwändig; technologielastig

6.4. Virtual

6.4.1. wissenschaftszentriert, virtuell realisiert; Herausforderung: wiss. relevante Ergebnisse, Mitarbeitendenmotivation; top-down Organsiation; wenig Belege für Benutzerweiterbildung; technologiezentriert

6.5. Education

6.5.1. geografisch fixiert, Mitarbeitenden(aus)bildung steht im Mittelpunkt (institutionalisiert vs. freiwillig); keine typische citizen science; top-down; technologielastig; usability-orientiert

7. Literatur

7.1. y: ... data\shared\citizen science

7.2. Hedges, Mark, Dunn, Stuart: Crowd-Sourcing Scoping Study: Engaging the Crowd with Humanities Research. Projektbericht. Arts and Humanities Research Council 2012.

7.3. Wiggins, Andrea, Kevin Crowston: From Conservation to Crowdsourcing: A Typology of Citizen Science. Presented at: Proceedings of the 44th Hawaii International Conference on System Sciences (HICSS ‘10), January 2011. Zuletzt geändert: 2011. Url: http://crowston.syr.edu/content/conservation-crowdsourcing-typology-citizen-science [24.09.2015].

7.4. Herrmann, Elisa: Gemeinsam mehr erreichen: Citizen Science und Crowdsourcing in Wissenschaft und Wirtschaft. 2013. Zuletzt geändert: 29.10.2013. Url: http://www.ibi.hu-berlin.de/de/bbk/podcast/herrmannf [24.09.2015]

7.5. Blogs / online

7.5.1. http://crowdsourcing.typepad.com/cs/2006/06/crowdsourcing_a.html

7.5.2. http://www.digitalhumanities.cam.ac.uk/Methods/Crowdsourcing

7.5.3. http://blogs.lse.ac.uk/impactofsocialsciences/2013/03/21/more-than-a-business-model-crowd-sourcing-and-impact-in-the-humanities/

7.5.4. http://www.citizen-science.at/citizen-science/was-ist-citizen-science

7.5.5. http://science.orf.at/stories/1754489/

7.6. Engaging the Public: Best Practices for Crowdsourcing Across the Disciplines May 6 - 8, 2015 • University of Maryland http://www.crowdconsortium.org/wp-content/uploads/crowdconP.pdf

8. Planung (nach Holly / Herrmann)

8.1. Aufgabenstellung

8.1.1. klares Ziel (einzelne Zwischenziele spezifizieren)

8.1.2. große Herausforderung

8.1.3. Fortschritt (dokumentieren / visualisieren)

8.1.4. Ergebnisse (dokumentieren / visualisieren)

8.2. technische Umsetzung

8.2.1. leicht und lustig

8.2.2. zuverlässig und schnell

8.2.3. intuitiv

8.3. Mitarbeitendenmotivierung

8.3.1. anerkennen

8.3.2. belohnen

8.3.3. Wahlmöglichkeiten

8.3.4. Team-Unterstützung

8.3.5. Vertrauen

8.3.6. Aktivität der Auftraggeber

8.3.7. Community-Aktivitäten

8.4. Material

8.4.1. interessant

8.4.2. neu

8.4.3. große Mengen

8.4.4. Geschichte / Naturwissenschaft

8.5. Checkliste

8.5.1. Wahl des richtigen Crowdsourcing-Modells

8.5.2. Auswahl der passenden 'Crowd'

8.5.3. den passenden Ansporn bieten

8.5.4. einfach halten und in Einzelschritte untergliedern

8.5.5. "The Community is always right"

8.5.6. Ask Not What The Crowd Can Do for You, But What You Can Do for The Crowd

9. Beispiele

9.1. Portale

9.1.1. http://www.citizenscience.org

9.1.2. http://scistarter.com/

9.1.3. http://www.citizen-science.at/

9.1.4. http://buergerschaffenwissen.de/

9.2. Referenzprojekte

9.2.1. http://blogs.ucl.ac.uk/transcribe-bentham/

9.2.2. http://www.galaxyzoo.org/

9.2.3. http://www.oldweather.org/

9.2.4. https://fold.it/portal/

9.2.5. http://stardustathome.ssl.berkeley.edu/

9.3. Andere Beispiele

9.3.1. Sprachatlantendigitalisierung (Kundmann, München)

9.3.2. Schweizer Dialekt App

9.3.3. ReCaptcha

9.3.4. Great War Archive

9.3.5. Letters of 1916

9.3.6. Finnische Zeitung

9.3.7. DTA

9.3.8. Projekt Gutenberg

9.3.9. Holländ: z.B. MONK

9.3.10. ARTIGO

9.3.11. Bodleian: Drucker

9.3.12. Genealogendatenbank

9.3.13. Topothek

9.3.14. USA Census

9.3.15. Schottische Dialekte

9.3.16. Europeana/ÖNB 1914-18

9.4. https://www.zooniverse.org

9.4.1. https://anno.tate.org.uk/#/artists

9.4.1.1. https://github.com/zooniverse/annoTate

9.4.2. HowToBuildAProject

9.4.2.1. Project

9.4.2.2. Workflow

9.4.2.2.1. Tasks

9.4.2.2.2. Typen

9.4.2.2.3. Anzahl Beiträge bevor das Objekt "fertig" ist

9.4.2.3. Subjects

9.4.2.3.1. All of your images in a single folder along with a manifest file

9.4.3. https://github.com/zooniverse/annoTate

9.4.4. https://github.com/zooniverse/Scribe

10. Software

10.1. https://github.com/zooniverse

10.2. http://edutechwiki.unige.ch/en/List_of_citizen_science_software

10.3. https://web.ornl.gov/registration_resumes/Brovelli_Minghini_Zamboni.pdf

10.4. http://web.ornl.gov/sci/gist/workshops/2014/docs/Maria%20Antonia%20Brovelli-%20Free%20and%20Open%20source%20Software%20for%20citizen%20science%20applictations.pdf

11. bereitgestellt von

11.1. Helmut W. Klug

11.2. Georg Vogeler

11.3. unter der Lizenz BY-NC-SA

11.3.1. http://creativecommons.org/licenses/by-nc-sa/4.0/