Workshops 2019/20
Im Sommersemester 2020 veranstaltete das GMZ folgende Workshops:
DI Dr. Clemens Brunner, Online-Workshop, 02.-08.07.2020
This course teaches basic concepts of the programming language Python. Besides an extensive coverage of the basics, this course also discusses concepts relevant for scientific data analysis applications. Topics covered include:
- Properties of Python
- Installation and configuration
- Suitable editors and development environments
- Syntax and structure of a Python program
- Control structures (conditions, loops)
- Data types
- Importing and exporting text data
- Working with numeric data
- Visualizing data
Students are not expected to be familiar with any programming language, but basic computer skills are helpful. After taking this course, students should be familiar with basic concepts in Python. Specifically, students should be able to
- install and configure Python,
- decide if Python is suitable for a specific problem,
- understand and apply basic concepts, workflows, and commands,
- solve simple problems (e.g. create functions, import numerical data, write simple programs) with Python.
Relevant literature will be announced during the workshop.
Clemens Brunner is a senior postdoc with a background in electrical/biomedical engineering and computer engineering. He works at the Educational Neuroscience group at the Institute of Psychology, University of Graz, Austria. His research interests include number processing and arithmetic, EEG-based connectivity analysis, biomedical signal processing, applied machine learning, applied statistics, brain-computer interfaces, and software development. He is a proponent of open source software and believes that science should be open as well, including data and analysis scripts. Python is his favorite language, but sometimes he enjoys performing data analysis and statistical tests with R (thanks in particular to its Tidyverse). He maintains and develops MNELAB (a PyQt-based graphical user interface for processing EEG/MEG data using MNE), the Qt/C++ based biosignal visualization tool SigViewer, and SCoT (a Python toolbox for EEG-based source connectivity estimation). He is part of the MNE and pyXDF development teams, and has contributed to scikit-learn, pandas, PsychoPy, and BioSig. More information is available on his website at cbrnr.github.io.
Prof. Dr. Rudolf Schmitt, Online- Workshop, 26.06.2020
Im Rahmen des eintägigen Workshops wird zunächst in die systematische Metaphernanalyse eingeführt. Sie reagiert auf die Probleme bisheriger Versuche, den Sinn von metaphorischen Äußerungen zu verstehen. Von älteren Studien unterscheidet sie sich durch folgendes:
- Sie nutzt die Theorie der kognitiven Linguistik (George Lakoff und Mark Johnson), um den Stellenwert von Metaphern für Strukturen von Denken, Handeln und Emotionen zu bestimmen.
- Das empirische Vorgehen bietet eine handhabbare Arbeitsdefinition zur Erkennung von Metaphern.
- Sie ermöglicht, von einzelnen Metaphern auf zusammenhängende metaphorische Konzepte zu schließen.
- Das empirische Vorgehen der Metaphernanalyse ist offen dafür, sowohl kulturelle, subkulturelle wie individuelle Muster zu rekonstruieren.
- Für die Interpretation metaphorischer Muster steht eine Sammlung heuristischer Hilfen zur Verfügung.
- Neben allgemeinen, für qualitative Forschung gültigen Gütekriterien sind speziellere Gütekriterien für Metaphernanalysen benennbar.
Zentral sind also dabei das Problem des Erkennens von Metaphern, die Bündelung von Einzelmetaphern zu metaphorischen Konzepten und die interpretative Rekonstruktion von Implikationen der metaphorischen Muster. Nach der Einführung soll zunächst ein größeres vorbereitetes Beispiel analysiert, dann im letzten Drittel ein Anliegen von Teilnehmenden diskutiert werden.
Eigenes Material, das öffentlich verteilt werden kann eingebracht werden. Es gelten für die Einreichung keine thematischen oder disziplinären Einschränkungen!, allerdings sollte es kein datenschutzrechtlich relevantes Material sein (keine Interviews).
Zielgruppe:
Vorkenntnisse in qualitativer Forschung werden vorausgesetzt, es gibt im Vorfeld Vorbereitungsempfehlungen zur Metaphernanalyse. Im Vorfeld sollen (per Mail) Bedarfe und Themen der Teilnehmenden erfragt werden.
Literatur
Johnson, Mark (1987). The body in the mind. The bodily basis of meaning, imagination, and reason. Chicago: The University of Chicago Press.
Lakoff, George (1987). Women, fire and dangerous things. What categories reveal about the mind. Chicago: The University of Chicago Press.
Lakoff, George & Johnson, Mark (2018). Leben in Metaphern. Heidelberg: Carl-Auer-Systeme. [Orig.: 1980. Metaphors we live by. Chicago: The University of Chicago Press].
Lakoff, George & Johnson, Mark (1999). Philosophy in the flesh: The embodied mind and its challenge to western thought. New York: Basic Books.
Schmitt, Rudolf (2004). Diskussion ist Krieg, Liebe ist eine Reise, und die qualitative Forschung braucht eine Brille. Review Essay: George Lakoff & Mark Johnson (2003). Leben in Metaphern. Konstruktion und Gebrauch von Sprachbildern [54 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, Art. 19, http://nbn-resolving.de/urn:nbn:de:0114-fqs0402190.
Schmitt, Rudolf (2007). Versuch, die Ergebnisse von Metaphernanalysen nicht unzulässig zu generalisieren. Zeitschrift für qualitative Forschung, 8(1), 137-156. http://nbn-resolving.de/urn:nbn:de:0168-ssoar-277869.
Schmitt, Rudolf (2017). Systematische Metaphernanalyse als Methode der qualitativen Sozialforschung. S. 644 Wiesbaden: Springer VS, http://link.springer.com/book/10.1007/978-3-658-13464-8.
Schmitt, Rudolf; Schröder, Julia & Pfaller, Larissa (2018). Systematische Metaphernanalyse. Eine Einführung. Wiesbaden: Springer VS. https://link.springer.com/book/10.1007/978-3-658-21460-9.
Mag. Marc André Günther, Online-Workshop, 09.-10.06.2020
Ein wesentlicher Schritt im empirischen Forschungsprozess stellt die Auswertungsphase dar, in der die Forschungsergebnisse berechnet werden. Die korrekte Bearbeitung und Auswertung der erhobenen Messdaten ist eine Grundvoraussetzung für die adäquate Beantwortung von Forschungsfragen.
Auf Grundlage des Statistik-Softwarepakets SPSS erlernen die TeilnehmerInnen im Workshop die Schritte der Dateneingabe, -transformation und -auswertung und erhalten einen Überblick über verschiedene Methoden der quantitativen Datenanalyse. Neben der Vermittlung von Kenntnissen in univariaten und bivariaten Auswertungsverfahren wird die deskriptive Darstellung von Ergebnissen behandelt.
Im Rahmen des Workshops bietet sich für die TeilnehmerInnen zusätzlich die Gelegenheit, Auswertungsmöglichkeiten eigener Erhebungen (geplant oder bereits durchgeführt) zu thematisieren.
Voraussetzungen:
Der Workshop ist auf Personen mit wenig oder gar keinen SPSS-Kenntnissen zugeschnitten.
Statistik-Grundkenntnisse werden erwartet.
Feedback bisheriger TeilnehmerInnen:
"Toll waren die vielen praktischen Beispiele um Umgang mit SPSS zu üben. Der Referent war sehr bemüht individuelle Fragen zu beantworten."
"Sehr verständliche Erklärungen; auch Grundlagen (statistische) wurden auf Nachfrage nochmals erklärt; die Beispiele wurden mit jedem einzelnen besprochen - wenn es nötig war!"
"Anhand von Beispielen wurde erklärt. So konnte man theoretisches Wissen gleich austesten."
Mag. Dr. Susanne Sackl-Sharif, Online-Workshop, 05.-06.06.2020
Nach eine kurzen Einführung in die Grundzüge der qualitativen Forschung und deren Gütekriterien wird in der ersten Hälfte des Workshops ein Überblick über wesentliche Auswertungstechniken in der qualitativen Sozialforschung gegeben (z.B. narrative und diskursive Verfahren, induktive und deduktive Kategorienbildung). Ausgewählte Auswertungsstrategien werden daran anschließend vertiefend diskutiert und in kleinen Übungen gemeinsam erarbeitet. Dazu zählen u.a. die Qualitative Inhaltsanalyse (Philipp Mayring), die Textanalyse in der Grounded Theory (Anselm Strauss/Juliet Corbin), das thematische Auswerten oder die Objektive Hermeneutik (Ulrich Oevermann).
In der zweiten Hälfte des Workshops steht die computergestützte Analyse qualitativer Daten im Fokus. Zunächst werden die wesentlichen Funktionen der Auswertungssoftware MaxQDA 12 präsentiert. Dazu zählen u.a. Transkribieren mit MaxQDA, induktive und deduktive Kategorienbildung mit MaxQDA, einfache Analysetools und Mixed-Methods-Tools sowie Visualisierungstechniken. Anschließend werden Interviewtranskripte und/oder Zeitungsartikel in kleinen Arbeitsgruppen unter der Anleitung der Workshopleiterin codiert und analysiert.
Neben theoretischen Inputs werden in diesen Workshop zahlreiche Beispiele aus der konkreten Forschungspraxis vorgestellt und diskutiert. Außerdem haben die Teilnehmenden die Möglichkeit, ihre eigenen Forschungsvorhaben einzubringen und über aktuelle Herausforderungen zu reflektieren.
Anmerkung:
Das Programm MaxQDA kann über die Website http://software.uni-graz.at/ in der neuesten Version 12 von allen Studierenden und Bediensteten der Universität Graz gratis bezogen und auch auf private Computer installiert werden.
Voraussetzungen:
Grundkenntnisse im Bereich der qualitativen Forschung empfohlen >> Workshop Einführung in qualitative Erhebungsmethoden
Feedback bisheriger TeilnehmerInnen:
"Toll war der kurze und kompakte Überblick in das Thema; Praxisbezug! Sehr informativ - vielen Dank!"
"Vortragende hat hohe Kompetenz und Erfahrung mit Methoden und Tools! Viele Tipps mitgenommen!"
"Sehr sympatische und gut vorbereitete Referintin. Angenemer Vortragsstil und gute Pauseneinteilung. Workshopkonzept in sich als Einführung sehr stimmig ung genau das, was ich mir gewünscht hatte."
"Tolle Inhalte, guter Überblick, sehr kompetente Vortragende!"
Verena Köck, MA, Online-Workshop, 28.05.-04.06.2020
Im Workshop werden Grundprinzipien der eigenständigen Fragebogenkonstruktion thematisiert und anhand praktischer Übungen erprobt. Unter anderem werden folgende Fragen besprochen: Wann sind Fragebögen das passende Erhebungsinstrument? Wen befrage ich – und wie viele? Worauf ist bei der Formulierung von Fragen zu achten? Welche Rolle spielen Hypothesen bei der Fragebogenkonstruktion? Wie verteile ich den Fragebogen am besten? Sollte man sich schon bei der Fragebogenkonstruktion einen Plan für die Datenanalyse zurechtlegen?
Der Workshop richtet sich an Personen mit keiner bzw. wenig Vorerfahrung im Bereich der Fragebogenkonstruktion.
Verena Köck, MA, Online-Workshop, 14.-20.05.2020
Nach einer Einführung in die Grundprinzipien qualitativer Forschung werden zentrale Interviewformen (bspw. Problemzentriertes Interview, Narratives Interview) vorgestellt und es wird diskutiert, worauf bei der konkreten Durchführung zu achten ist. Unter anderem werden folgende Fragen besprochen: Wann sind Interviews das passende Erhebungsinstrument? Wen befrage ich – und wie viele? Wie gestalte ich einen Interviewleitfaden? Da derzeit viele Interview nicht face-to-face durchgeführt werden können, wird außerdem besprochen, worauf bei Interviews per Telefon, Skype usw. speziell zu achten ist.
Der Workshop richtet sich an Personen mit keiner bzw. wenig Vorerfahrung im Bereich der Interviewführung.
Karin Scaria-Braunstein, BA MA, 07.03.2020
Im Workshop beschäftigen wir uns mit den theoretischen Grundlagen von Gruppendiskussion & Fokusgruppen in der qualitativen Sozialforschung, mit ihren unterschiedlichen Formaten, der Konzeptionierung von Gruppendiskussionen und der praktischen Umsetzung. Im Fokus stehen u.a. Fragen zur Erstellung von Leitfäden, die Festlegung von Gruppengrößen, der Einstieg in die Diskussion und die Moderation. Auch kritische Aspekte wie Gruppendynamiken werden besprochen.
Im Wintersemester 2019/20 veranstaltete das GMZ folgende Workshops:
DI Dr. Clemens Brunner, 25.-26.02.2020
This course teaches basic concepts of the programming language Python. Besides an extensive coverage of the basics, this course also discusses concepts relevant for scientific data analysis applications. Topics covered include:
- Properties of Python
- Installation and configuration
- Suitable editors and development environments
- Syntax and structure of a Python program
- Control structures (conditions, loops)
- Data types
- Importing and exporting text data
- Working with numeric data
- Visualizing data
Students are not expected to be familiar with any programming language, but basic computer skills are helpful. After taking this course, students should be familiar with basic concepts in Python. Specifically, students should be able to
- install and configure Python,
- decide if Python is suitable for a specific problem,
- understand and apply basic concepts, workflows, and commands,
- solve simple problems (e.g. create functions, import numerical data, write simple programs) with Python.
Relevant literature will be announced during the workshop.
The Workshop is being organized in cooperation with the Doctoral Academy, University of Graz
Clemens Brunner is a senior postdoc with a background in electrical/biomedical engineering and computer engineering. He works at the Educational Neuroscience group at the Institute of Psychology, University of Graz, Austria. His research interests include number processing and arithmetic, EEG-based connectivity analysis, biomedical signal processing, applied machine learning, applied statistics, brain-computer interfaces, and software development. He is a proponent of open source software and believes that science should be open as well, including data and analysis scripts. Python is his favorite language, but sometimes he enjoys performing data analysis and statistical tests with R (thanks in particular to its Tidyverse). He maintains and develops MNELAB (a PyQt-based graphical user interface for processing EEG/MEG data using MNE), the Qt/C++ based biosignal visualization tool SigViewer, and SCoT (a Python toolbox for EEG-based source connectivity estimation). He is part of the MNE and pyXDF development teams, and has contributed to scikit-learn, pandas, PsychoPy, and BioSig. More information is available on his website at cbrnr.github.io.
Prof. Dr. Thomas Fenzl, 07.-08.02.2020
Der Workshop bietet eine praktische Einführung in die verschiedenen Arbeitstechniken der Qualitativen Inhaltsanalyse (QIA) nach Mayring, wobei die methodisch-technischen Aspekte der induktiven Kategorienbildung und der deduktiven Kategorienzuweisung im Zentrum stehen. Nach einem kurzen theoretischen Input setzen sich die TeilnehmerInnen in der praktischen Arbeit an Beispielmaterial in Kleingruppen mit den Techniken der kategoriengeleiteten, qualitativ-orientierten Textanalyse aktiv auseinander. Außerdem wird im Workshop ein praktischer Einblick in die computerunterstützte Umsetzung der Datenauswertung mit den Methoden der QIA unter Verwendung der Open-Access Software QCAmap (www.qcamap.org) gegeben.
Für den Workshop besteht die Möglichkeit, eigenes Datenmaterial mitzubringen bzw. in einer offenen Runde methodische Fragen zu eigenen Forschungsvorhaben zu diskutieren. Dafür ist es notwendig, die Unterlagen (Datenmaterial bzw. kurzer Abriss der Forschungsarbeit inkl. konkreter methodischer Fragen) spätestens bis zum 13.01.2020 an das GMZ gmz(at)uni-graz.at zu senden.
Feedback bisheriger TeilnehmerInnen:
"Äußerst kompetenter Referent, didaktisch gute Vermittlung des Lehrstoffes, sehr hilfreich."
"Sehr gut gefallen hat mir, dass der/die LeiterIn dieses Kurses sich viel Zeit für Fragen von den TeilnehmerInnen genommen hat, um diese auch umfangreich in der Pause zu beantworten."
"Guter Mix aus Theorie und Anwendung. Man konnte immer Fragen stellen. Freundliche und angenehme Atmosphäre."
"Klare und motivierende theoretische Einführung. Workshop war sehr gut strukturiert."
"Sehr hilfreiche praktische Tipps."
Univ.Doz. Dr. Beate Littig, 17.-18.01.2020
In dem Workshop wird es darum gehen, möglichst alle Phasen eines Forschungsvorhabens, das mit Expert*inneninterviews arbeiten will - angefangen also vom Forschungsdesign, über die Datengenerierung und -auswertung und bis zur Berichtlegung – zu behandeln.
Zur Methodologie sowie zu forschungspraktischen Aspekten des Expert*inneninterviews wird es überblicksartige Inputs seitens der Leiterin geben. Diese werden hervorheben, dass Expert*innenninterviews schon lange zur Praxis sozialwissenschaftlicher Forschung gehören, die methodologische Debatte um Expert*inneninterviews hingegen erst rezenten Datums ist. Der Schwerpunkt der Methodendebatte liegt dabei auf Fragen der Expertendefinition, auf der Unterscheidung verschiedener Formen von Expert*inneninterviews und ihrer Stellung im Forschungsdesign sowie auf den Besonderheiten in Interviewführung und Interaktionskonstellation im Vergleich zu anderen Formen qualitativer Interviews. Auch neuere Entwicklungen wie telefonische oder netzbasierte Interviews sowie fremdsprachige Interviews werden ebenfalls thematisiert. Die Auswertung wird erst neuerdings ausführlicher behandelt unter der Perspektive der Angemessenheit verschiedener Verfahren (vor allem der qualitativen Inhaltsanalyse oder an der Grounded Theory angelehnte Verfahren). Hinsichtlich der Berichtlegung geht es vor allem um die Problematik der Anonymisierung.
Bei Bedarf können spezifische methodische Probleme der Teilnehmenden bei der Durchführung von Expert*inneninterviews besprochen werden.
Teilnehmende, die daran interessiert sind, dass ihr Forschungsprojekt als (Illustrations-) Beispiel besprochen wird, sind aufgefordert, ein informatives Kurzexposé einzureichen. Zu senden ist dies bis zum 9.1.2020 an Littig@ihs.ac.at . 2-3 Forschungsvorhaben können jedenfalls auf der Basis überblickartiger Präsentationen ausführlicher besprochen werden. Diese werden von der Leiterin ausgewählt und mit den Präsentierenden vorbesprochen.
Literatur:
Bogner, Alexander; Littig, Beate & Menz, Wolfgang (Hrsg.) (2009). Interviews mit Experten. Eine praxisorientierte Einführung. Reihe Qualitative Sozialforschung, hrsg. v. Bohnsack, R./Flick, U./ Lüders, C./ Reichertz, J., Wiesbaden: Springer-VS.
Bogner, Alexander; Littig, Beate & Menz, Wolfgang (2014). Interviewing Experts and Elites, in: Flick, U. (ed.): The SAGE Handbook of Qualitative Data Collection, London et al: Sage , pp. 652-667
Littig, Beate (2008). Interviews mit Eliten – Interviews mit ExpertInnen: Gibt es Unterschiede. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 9(3), Art. 16
Mag. Marc André Günther, 10.-11.01.2020
Ein wesentlicher Schritt im empirischen Forschungsprozess stellt die Auswertungsphase dar, in der die Forschungsergebnisse berechnet werden. Die korrekte Bearbeitung und Auswertung der erhobenen Messdaten ist eine Grundvoraussetzung für die adäquate Beantwortung von Forschungsfragen.
Auf Grundlage des Statistik-Softwarepakets SPSS erlernen die TeilnehmerInnen im Workshop die Schritte der Dateneingabe, -transformation und -auswertung und erhalten einen Überblick über verschiedene Methoden der quantitativen Datenanalyse. Neben der Vermittlung von Kenntnissen in univariaten und bivariaten Auswertungsverfahren wird die deskriptive Darstellung von Ergebnissen behandelt.
Im Rahmen des Workshops bietet sich für die TeilnehmerInnen zusätzlich die Gelegenheit, Auswertungsmöglichkeiten eigener Erhebungen (geplant oder bereits durchgeführt) zu thematisieren.
Voraussetzungen:
Der Workshop ist auf Personen mit wenig oder gar keinen SPSS-Kenntnissen zugeschnitten. Statistik-Grundkenntnisse werden erwartet.
Feedback bisheriger TeilnehmerInnen:
"Toll waren die vielen praktischen Beispiele, um den Umgang mit SPSS zu üben. Der Referent war sehr bemüht individuelle Fragen zu beantworten."
"Sehr gut gefallen hat mir, dass alle Themen perfekt bearbeitet wurden, indem Theorie und Praxis direkt aufeinander folgten und sich gegenseitig ergänzten. Ganz großartig war auch, dass wir uns genügend Zeit ließen, um die Ergebnisse zu interpretieren."
"Der LV-Leiter war sehr bemüht, die Inhalte logisch und einfach zu erklären und hat stets nachgefragt, ob jemand Fragen hat oder Hilfe benötigt."
"Gute Strukturierung der LV und super Präsentation. Man hatte immer die Möglichkeit Fragen zu stellen."
"Kompetenter, wertschätzender Vortragender!"
Mag. Dr. Susanne Sackl-Sharif, 13.-14.12.2019
Nach eine kurzen Einführung in die Grundzüge der qualitativen Forschung und deren Gütekriterien wird in der ersten Hälfte des Workshops ein Überblick über wesentliche Auswertungstechniken in der qualitativen Sozialforschung gegeben (z.B. narrative und diskursive Verfahren, induktive und deduktive Kategorienbildung). Ausgewählte Auswertungsstrategien werden daran anschließend vertiefend diskutiert und in kleinen Übungen gemeinsam erarbeitet. Dazu zählen u.a. die Qualitative Inhaltsanalyse (Philipp Mayring), die Textanalyse in der Grounded Theory (Anselm Strauss/Juliet Corbin), das thematische Auswerten oder die Objektive Hermeneutik (Ulrich Oevermann).
In der zweiten Hälfte des Workshops steht die computergestützte Analyse qualitativer Daten im Fokus. Zunächst werden die wesentlichen Funktionen der Auswertungssoftware MaxQDA 12 präsentiert. Dazu zählen u.a. Transkribieren mit MaxQDA, induktive und deduktive Kategorienbildung mit MaxQDA, einfache Analysetools und Mixed-Methods-Tools sowie Visualisierungstechniken. Anschließend werden Interviewtranskripte und/oder Zeitungsartikel in kleinen Arbeitsgruppen unter der Anleitung der Workshopleiterin codiert und analysiert.
Neben theoretischen Inputs werden in diesen Workshop zahlreiche Beispiele aus der konkreten Forschungspraxis vorgestellt und diskutiert. Außerdem haben die Teilnehmenden die Möglichkeit, ihre eigenen Forschungsvorhaben einzubringen und über aktuelle Herausforderungen zu reflektieren.
Anmerkung:
Das Programm MaxQDA kann über die Website http://software.uni-graz.at/ in der neuesten Version 12 von allen Studierenden und Bediensteten der Universität Graz gratis bezogen und auch auf private Computer installiert werden.
Voraussetzungen:
Grundkenntnisse im Bereich der qualitativen Forschung empfohlen >> Workshop Einführung in qualitative Erhebungsmethoden
Feedback bisheriger TeilnehmerInnen:
"Toll war der kurze und kompakte Überblick in das Thema; Praxisbezug! Sehr informativ - vielen Dank!"
"Vortragende hat hohe Kompetenz und Erfahrung mit Methoden und Tools! Viele Tipps mitgenommen!"
"Sehr sympatische und gut vorbereitete Referintin. Angenemer Vortragsstil und gute Pauseneinteilung. Workshopkonzept in sich als Einführung sehr stimmig ung genau das, was ich mir gewünscht hatte."
"Tolle Inhalte, guter Überblick, sehr kompetente Vortragende!"
Dr. Anja Eder, 25.11.2019
Der Fragebogen ermöglicht eine standardisierte Messung von Einstellungen und selbst berichteten Handlungsweisen und zählt zu einem der wichtigsten Erhebungsinstrumente sozialwissenschaftlicher Forschung. Der Workshop bietet eine praktische Einführung in die verschiedenen Arbeitstechniken der Konstruktion von Fragebögen und vermittelt den TeilnehmerInnen Tipps und Tricks für die eigenständige Erstellung von Fragebögen. In kurzen Vortragspassagen wird eine Einführung in die Testkonstruktion und die verschiedenen Arbeitstechniken gegeben, welche anschließend anhand von praktischen Übungen erprobt werden. Im Workshop wird ein „typischer“ Ablauf der Fragebogenkonstruktion gemeinsam durchlaufen und thematisiert, wie häufig auftretende Fehler vermieden werden können.
Für den Workshop besteht die Möglichkeit, eigens entwickelte Fragebögen mitzubringen bzw. in einer offenen Runde methodische Fragen zu eigenen Forschungsvorhaben zu diskutieren. Dafür ist es notwendig, die Unterlagen (kurzer Abriss der Forschungsarbeit, zumindest Teile des Fragebogens und konkrete methodische Fragen) spätestens bis zum 28.10.2019 an das GMZ gmz(at)uni-graz.at zu senden.
Feedback bisheriger TeilnehmerInnen:
"Ein toller, strukturierter Workshop!"
"Ich habe jetzt einen viel besseren Einblick in die Thematik."
"Die Workshopleiterin war sehr kompetent, gestaltete den Vortrag äußerst ineressant. Es war von Basiswissen bis teilweise schon sehr speifischen Fragen alles dabei."
"War ein super Workshop, den ich nur weiterempfehlen kann!"
Mag. Petra Baumann, MA, 22.-23.11.2019
Next Steps – Anwendung statistischer Verfahren mit R/RStudio
Der Workshop bietet Ihnen die Möglichkeit, grundlegende Funktionen und Pakete in R kennenzulernen und selbst auszuprobieren. Der Ablauf orientiert sich dabei am typischen Prozess der Datenanalyse und umfasst folgende Themen:
- Datenimport (inkl. Fremdformate z.B. SPSS, CSV)
- Sichten, Bereinigen, Umstrukturieren, Vorbereiten, Zusammenfassen der Daten
- Datenanalyse (z.B. Korrelationen, Mittelwerts- und Gruppenvergleiche, Regressionen)
- Einfache Grafiken mit plot
- Komplexe Grafiken mit ggplot2
- einfache Loops und Funktionen
Zu jedem Themengebiet werden Pakete und Funktionen anhand von Beispielen vorgestellt. Sie haben dann die Möglichkeit, den Code selbst anzuwenden und erhalten weiterführende Aufgaben, die selbstständige Modifikationen des Codes erfordern. Die Aufgaben werden dann besprochen und Musterlösungen bereitgestellt.
Eine Schwerpunktsetzung kann in Absprache mit allen TeilnehmerInnen erfolgen. Ebenso ist es, je nach Zusammensetzung der Gruppe, möglich an eigenen Datensätzen zu arbeiten und individuelle Problemstellungen zu besprechen.
Voraussetzungen:
Der Workshop ist für Sie geeignet, wenn Sie mit der Grundstruktur von R bzw. RStudio vertraut sind, aber noch keine Erfahrung mit der Durchführung eigener Projekte in R haben. Die benötigten Basiskenntnisse (v.a. Kommandozeilenumgebung und die Bedeutung von Funktionen und Paketen), können Sie vorab durch den Besuch eines Einführungsworkshops oder diverse kostenlose Online-Tutorials erworben werden. Statistische Kenntnisse werden vorausgesetzt, es erfolgt keine Besprechung statistischer Methoden oder Probleme, da der Schwerpunkt auf dem Erlernen einer neuen Programm(ier)umgebung liegt.
Prinzipiell ist die Teilnahme auch möglich, wenn Sie die Voraussetzungen nicht erfüllen. Bitte beachten Sie jedoch, dass es nur sehr begrenzt möglich ist, die fehlenden Kenntnisse im Rahmen des Workshops zu vermitteln bzw. darauf einzugehen.
Wenn Sie noch keine Vorkenntnisse haben, dann besuchen Sie bitte zuerst den Workshop BASISWORKSHOP: Einführung in R.
Feedback bisheriger TeilnehmerInnen:
"Die Vortragende ist sehr kompetent. Man hat das Gefühl, dass sie sich mit "R" wirklich gut auskennt."
"Leiterin war sehr bemüht und konnte viele Fragen beantworten."
"Raum für das Ausprobieren mit eigenen Daten und die Möglichkeit Fragen zu stellen. Für mich hilfreichste R-Kurs - gut geeignet, wenn man Erfahrung mit anderen Statistikprogrammen hat und lernen will, wie selbiges mit R zu realisieren ist."
Dr. Mathias Jesussek, 08.11.2019
Statistische Basiskompetenzen stellen im Bereich der quantitativen Sozialforschung eine wesentliche Grundlage der Konzeption und Durchführung von Erhebungen sowie der weiterführenden Datenanalyse dar. Ziel dieses Workshops ist es, den TeilnehmerInnen die Grundlagen der uni- und bivariaten Statistik näher zu bringen und sie auf weitere forschungsspezifische Schritte im Bereich quantitativer Methoden und Analysen vorzubereiten.
Die Inhalte des Workshops werden den TeilnehmerInnen theoretisch und anhand von Übungsbeispielen nähergebracht. Die Übungsbeispiele werden mit dem Online-Statistik-Rechner DataTab berechnet und können von jedem/jeder TeilnehmerIn eigenständig wiederholt werden. Nach einer Einführung in die Hintergründe und Ziele der Statistik werden wesentliche statistische Grundbegriffe und -konzepte (z.B. Stichproben, Variablen, Skalenniveaus etc.) ausführlich besprochen. Im Anschluss folgt eine Auseinandersetzung mit den Grundlagen der deskriptiven Statistik (z.B. Lage- und Streuungsparameter, grafische Darstellung von Merkmalsverteilungen). Schließlich werden die Grundlagen der Inferenzstatistik erläutert und es wird dabei auf Zufallsgrößen und deren Verteilungen eingegangen (z.B. Hypothesentest, Signifikanz, Normalverteilung etc.). Es folgt eine Einführung in die Grundlagen statistischer Methoden zur Analyse von Häufigkeiten (z.B. Chi2-Test), Beschreibung von Zusammenhängen (z.B. Korrelationsanalysen) sowie zur Testung von Mittelwertsunterschieden (z.B. t-Test).
Der Workshop ist auf Personen zugeschnitten, die noch keine Statistik-Kenntnisse besitzen bzw. ihr statistisches Basiswissen auffrischen wollen.
Workshopleitung: Dr. Mathias Jesussek promovierte 2014 an der TU Graz im Bereich Mechanik mit Vertiefungsrichtung numerische Mathematik und Statistik. Derzeit ist er im Risikomanagement in der Privatwirtschaft tätig und arbeitet als nebenberuflicher Lektor im Bereich der quantitativen Datenanalyse.
Verena Köck, MA, 31.10.2019
Die letzten Jahre zeigten, dass empirische Forschung in ganz unterschiedlichen Fachrichtungen immer zentraler wird. Bevor es jedoch zur Umsetzung eines empirischen Forschungsprojekts kommt, stellt sich oftmals die Frage, ob es für das vorliegende Forschungsinteresse überhaupt sinnvoll ist, eine empirische Untersuchung durchzuführen, bzw. welche konkreten Untersuchungsmöglichkeiten es gibt.
Vor diesem Hintergrund richtet sich dieser Einführungsworkshop speziell an Personen, die Interesse an empirischer Forschung im geistes-, sozial-, kultur-, wirtschafts-, bildungs-, bzw. rechtswissenschaftlichen Kontext haben, diesbezüglich jedoch noch über keine Vorerfahrung verfügen. Der Workshop gibt einen Überblick über den Ablauf eines Forschungsprojekts, unterschiedliche Varianten von Forschungsdesigns und ausgewählte qualitative und quantitative Forschungsmethoden.
Unter anderem werden folgende Fragen behandelt: Was bedeutet empirisches Forschen? Woran ist zu denken, bevor ich ein empirisches Projekt starte? Was erwartet mich? Welches Know-How muss ich mir voraussichtlich aneignen, um das Forschungsprojekt durchführen zu können? Was ist hinsichtlich der praktischen Umsetzung zu bedenken?
Info zur Anmeldung
All jenen, die sich eine Vertiefung in konkrete Methoden wünschen, empfehlen wir den Besuch der weiterführenden Workshops des GMZ.
DI Dr. Clemens Brunner, 18.-19.10.2019
R ist mittlerweile eine der populärsten Programmiersprachen für Statistik und Datenverarbeitung. Einige Gründe dafür sind die freie Verfügbarkeit von R auf vielen Plattformen (Windows, macOS, Linux), viele tausende (ebenfalls frei verfügbare) Zusatzpakete für fast jeden erdenklichen Einsatzzweck, eine sehr große und hilfsbereite Community sowie die komfortable Programmierumgebung RStudio.
In dieser Veranstaltung werden die Grundlagen der Programmiersprache R vermittelt. Themen umfassen die Installation und Aktualisierung von R und RStudio, die Verwaltung von Zusatzpaketen (Finden von geeigneten Paketen, Installation, Aktualisierung und Deinstallation), grundlegende Datentypen (Vektoren), sowie Aufbau und Funktionsweise von R-Scripts. Einfache Anwendungen werden ebenfalls in der Veranstaltung vermittelt, wie beispielsweise das Einlesen von verschiedenen Datenformaten, Berechnen einfacher deskriptiver Statistiken und das Erstellen von einfachen Grafiken.
Ziel dieser Veranstaltung ist es, einen breiten Überblick über das R-Ökosystem zu geben und das Basiswissen zu vermitteln, mit dem man dann selbstständig speziellere Anwendungsgebiete erschließen kann (es werden daher keine spezifischen statistischen Verfahren im Detail behandelt). Eigene Laptops können gerne mitgebracht werden.
Feedback bisheriger TeilnehmerInnen:
"Der Einstieg ins Programmieren ist mit dem Workshop gut gelungen."
"Der Workshopleiter hat den Unterricht ganz ausgezeichnet gestaltet. Ausgewogene Balance von Theorie und Übung. Das Tempo wurde so gewählt, dass alle Teilnehmerinnen und Teilnehmer folgen konnten. Er hat alle Fragen beantwortet, seine Hilfe auch für die Zukunft angeboten. Stoff wurde verständlich vermittelt und weitere Literaturquellen empfohlen. Er hat die Messlatte für weitere Workshops hoch gesteckt."
"Sehr sympatischer Vortragender, der die Inhalte verständlich vermittelt hat."
"Der Workshopleiter war überaus bemüht, sehr kompetent und konnte auch auf weiterfürende Fragen vonseiten der Teilnehmerinnen und Teilnehmer eingehen, die sonst im Workshop nicht behandelt werden würden. Das von ihm verwendete Skript war sehr übersichtlich aufgebaut und er hat auch mehrfach darauf verwiesen, dass mit diesem Skript auch selbstständig gelernt werden kann. Wir konnten zwar in der kurzen Zeit nicht jedes einzelne Thema durchmachen, aber den Großteil haben wir geschafft, ohne dass der Workshopleiter uns hetzte oder selbst gehetzt wirkte."
"Gute Lehrunterlagen, gut erklärt! Alles in allem ein super Workshop!"
Mag. Dr. Susanne Sackl-Sharif, 11.-12.10.2019
Nach einer kurzen methodologischen Einführung in die qualitative Forschung und deren Gütekriterien werden in diesem Workshop Grundlagen der qualitativen Datenerhebung vorgestellt und in kleineren Übungen gemeinsam erarbeitet. Zunächst werden unterschiedliche Auswahlverfahren und Samplingstrategien, u.a. das theoretische Sampling der Grounded Theory oder das Prinzip der maximalen Variation, diskutiert, bevor auf zwei konkrete Erhebungsmethoden näher eingegangen wird:
(1) Datenerhebung mit Interviews: Vorgestellt werden zum einen unterschiedliche Interviewtypen, etwa das Expert_innen-Interview, das narrative-biografische Interview, das fokussierte-leitfadengestützte Interview oder Gruppendiskussionen. Zum anderen werden praktische Tipps zur Interviewvorbereitung (z.B. Leitfadenerstellung) und -nachbereitung (z.B. Transkriptionsregeln, Gesprächsprotokoll) gegeben. Darüber hinaus werden Interaktionsdynamiken, die im Feld auftreten können, diskutiert und beschrieben, wie diese produktiv im Forschungsprozess genutzt werden können.
(2) Datenerhebung mit Beobachtung: Präsentiert werden die Grundzüge ethnografischer Feldforschung, etwa die Phasen der teilnehmenden Beobachtung, Formen von Feldnotizen und das Erstellen von Beobachtungsprotokollen. Ferner wird auf Möglichkeiten und Grenzen des Zugangs zu Forschungsfeldern sowie auf die notwendige Reflexion der Rolle der Forschenden im Feld eingegangen.
Feedback bisheriger TeilnehmerInnen:
"Besonders gut gefallen hat mir die Möglichkeit zum Austausch von Erfahrungen mit Kolleginnen und Kollegen und die praktischen Beispiele aus der eigenen Forschung der Vortragenden."
"Persönliche Erfahrungen der Vortragenden waren sehr gut und überzeugend dargestellt."
"Auch ohne Vorwissen konnte ich gut am Workshop teilnehmen und viel lernen."
"Toll waren die vielen Diskussionen, Inputs aus der Praxis und die verschiedenen Sichtweisen."
"Der Workshop vermittelte einen guten Überblick."
Kontakt
GrazerUnser Büro ist leider nicht barrierefrei zugänglich. Bei Bedarf halten wir daher Beratungen gerne auch an barrierefrei erreichbaren Orten am Campus der Universität Graz ab.