[de]

Nach der Kategorisierung von Daten ist es in der Regel sinnvoll, die Übereinstimmung der Beurteiler zu bestimmen. Dies geht bequem mit dem Webservice ReCal.

Zur Berechnung muss lediglich eine CSV-Datei hochgeladen werden, in der die vergebenen Kodes enthalten sind. Von dem Programm existieren drei Varianten: eine für zwei Beurteiler bei nominalem Skalenniveau, eine für drei oder mehr Beurteiler bei nominalem Skalenniveau, sowie eine für beliebig viele Beurteiler bei Ordinal-, Interval- oder Verhältnisskalenniveau. Das Programm wird beschrieben in:

[/de]

[en]

After categorization of data, it is sensible to calculate intercoder reliability. This can be easily done using the web serviceReCal.

The only action required to use this service is to upload a CSV-file containing the codes. There are three different variants of the program: one for two coders with data at nominal scale level, one for three or more coders with data at nominal scale level, and one for any number of coders with data at ordinal, interval, or ratio scale level. The program is described in the following article:

[/en]

Freelon, Deen G. (2010). ReCal: Intercoder Reliability Calculation as a Web Service._ International Journal of Internet Science,5_(1), 20-33.

[de]

Viele Daten, die man erhebt, sind örtlich gebunden. In R kann man solche Daten sehr schön mit dem Package sp darstellen. Alles, was man braucht sind:

  1. Kartenmaterial: Also Beschreibungen der Kanten. Eine sehr gute Datenbank hierfür ist die GADM database of Global Administrative Areas. Für Deutschland gibt es dort eine Karte aller Kreise, die als R-Datenobjekt gespeichert sind - nett oder?

  2. Daten, die einen lokalen Bezug haben. Viele gibt es in Genesis Datenbank des Statistikportals dem gemeinsamen Datenangebot der Statistischen Bundesämter. Ich hab’ mir vorgenommen einfach mal die Anzahl der Krankenhausbetten zu plotten. Hier ist das Ergebnis:

Hier sind die Schritte - eine ausführliche Beschreibung in englisch findet Ihr hier. Viel Spaß beim Verbessern!

usual setup packages and directory

require(sp)

require(RColorBrewer)

setwd("/Users/gerrit/Desktop/mapping/")
#load the map
load("DEU_adm3.RData")

NRW<-gadm[gadm$NAME_1=="Nordrhein-Westfalen",] #comment to plot whole BRD
#improve umlaut-coding
NRW_names<-iconv(NRW$NAME_3, "ISO_8859-2", "UTF-8")
#load the geo-tagged data
health<-read.table("/Users/gerrit/Desktop/mapping/Deu_Betten.csv", header=T, sep=";", dec=",", na.string=c("-", "."))
#match map and geo-data
total <- length(NRW_names)

order <- vector()

for (i in 1:total){

order[i] <- agrep(substr(NRW_names[i], 1, 6), substr(health$ORT_NAME, 1,6), max.distance=0.1)[1]

}

cbind(NRW_names, as.character(health$ORT_NAME[order])) 
#Check the matching
#set colors
col_no<-as.factor(as.numeric(cut(health$KH_BETTEN[order], breaks=c(1, 500, 1000, 1500, 2000, 2500, 3000, 3500, 100000))))

levels(col_no) <- c("NA","0-500", "500-1000","1000-1500", "1500-2000","2000-2500","2500-3000","3000-3500", ">3500")

NRW$col_no <- col_no

myPalette<-c("black", brewer.pal(8, "Purples"))
#plot it
spplot(NRW, "col_no", col=grey(.9), col.regions=myPalette, main="Hospital beds in NRW by district")

dev.print(png, file="Krankenhausbetten_NRW.png", width=10, height=7.68, units="in", res=72)

[/de]

[en]There is an already excellent introduction here. switch to German to see a short version of this. [/en]

[en]If you still cannot decide which tool to use for your next reaction-time experiment we make it a little harder. We already introduced a Affect which is win-only and has a graphical user interface and PsyToolkit which is Linux-only and is script-based. Here is another great option. PsychoPy is based on Python and has a gui which means, that:

  1. it runs on all platforms,

  2. affords experiments of any complexity,

  3. the gui helps those who BEGIN running experiments. To me this is much like learning any natural language. If you are only abroad for your 2 weeks vacation, it is ok to walk around and point to the things you want. But if you live there it’s rude not to learn the language.

That’s what the developers say about it:

PsychoPy is an open-source application to allow the presentation of stimuli and collection of data for a wide range of neuroscience, psychology and psychophysics experiments. It’s a free, powerful alternative to Presentation™ or e-Prime™, written in Python (a free alternative to Matlab™ ).

Cons:

  • Compared to PsyToolkit, it is somewhat more complex to control the trial timing in PsychoPy. Maybe some complete examples for well-known paradigms - the PsyToolkit site is an excellent example for this - would help.[/en]

[de]Wenn du immer noch nicht entscheiden kannst, welches Programm du für dein nächstes Reaktionszeitexperiment benutzen möchtest, machen wir dir die Entscheidung noch ein bisschen schwerer. Wir haben bereits Affect (welches lediglich auf Windows funktioniert und eine grafische Userinterface vorweist) und PsyToolkit (welches für Linux entwickelt wurde und scriptbasiert arbeitet) vorgestellt. Hier kommt eine weitere gute Option: PsychoPy basert auf Python und verfügt über einen GUI, was folgendes bedeutet:

  1. es läuft auf allen Platformen,

  2. es ermöglicht Experimente von hoher Komplexität,

  3. der GUI hilft denjenigen, die grade damit anfangen Experimente ans Laufen zu bekommen. Für mich ist das vergleichbar mit dem Lernen einer fremden Sprache: wenn du in dem fremden Land nur für einen zweiwöchigen Urlaub bist, ist es okay, herumzulaufen und auf die Dinge, die man möchte, zu zeigen. Lebst du allerdings in diesem Land, ist es unhöflich, die Sprache nicht zu lernen.

Folgendes sagen die Entwickler des Programms:

PsychoPy ist eine open-source Anwendung, welche sowohl die Präsentation von Stimuli als auch die Datensammlung für ein breites Feld an neurowissenschaftlichen, psychologischen und psychophysiologischen Experimenten erlaubt. Es ist eine kostenlose und leistungsstarke Alternative zu  Presentation™ oder e-Prime™, welche in Python geschrieben ist (eine freie Alternative zu Matlab™ ).

Cons:

  • Verglichen mit Psytoolkit ist es in PsychoPy komplexer, das trial-timing zu kontrollieren. Einige vollständige Beispiele für bekannte Paradigmen würden helfen(die PsyToolkit site ist ein ausgezeichnetes Beispiel hierfür). [/de]

[en]phpPanelAdmin is an open source tool for the management of on-line (access) panels or similar sampling lists or communities. phpPanelAdmin is free software placed under GNU General Public Licence. phpPanelAdmin works with PHP and MySQL, both of which are free.

phpPanelAdmin’s features to set up and administer an on-line panel include: - create a panel sign-up form from a template - automatic set-up of the panel database - search individuals or groups of panellists by a single search criterion or a combination of search criteria - view, modify, and delete panellists’ data - delete and clone variables - draw random samples - send e-mail to samples or individual panellists - export panellists’ profile data - panel statistics at a glance - identification of duplicates - create and manage e-mail templates - execute user-defined SQL-commands - help

The use of phpPanelAdmin is described in: Göritz, A. S. (2009). Building and managing an online panel with phpPanelAdmin. Behavior Research Methods, 41(4), 1177-1182.

The full text of this article can be downloaded here. Accompanying material can be downloaded here. Download phpPanelAdmin along with the documentation here.

[/en]

[de]phpPanelAdmin ist ein open source Werkzeug, um Online (access) Panels oder ähnliche Samplinglisten oder Communities zu managen. phpPanelAdmin ist free software unter GNU General Public Licence. phpPanelAdmin arbeitet mit PHP und MySQL, beide sind kostenlos.

phpPanelAdmin’s Features um ein online Panel zu erstellen und zu verwalten beinhalten:

  • von einer Vorlage eine Panel- sign-up- Form erstellen

  • automatisches Erstellen der Panel Database

  • Suche von Individuen oder Gruppen von Panellisten mit Hilfe eines einzigen Suchkriteriums oder einer Kombination von Suchkriterien

  • Betrachten, Modifizieren und Löschen von Daten der Panelliste

  • Löschen und Vervielfältigen von Variablen

  • Zufallssamples ziehen

  • eine Email an Samples oder individuelle Panelmitglieder senden

  • der Export von Profildaten von Panelmitgliedern

  • Panel-Statistiken auf einem Blick

  • Identifikation von Duplikaten

  • Erstellen und Managen von Emailvorlagen

  • Userdefinierte SQL-commands ausführen

  • Hilfe

Die Nutzung von phpPanelAdmin ist beschrieben in: Göritz, A. S. (2009). Building and managing an online panel with phpPanelAdmin. Behavior Research Methods, 41(4), 1177-1182.

Der komplette Text des Artikels kann hier gedownloaded werde. Begleitendes Material kann hier gedownloaded werde. Download phpPanelAdmin zusammen mit der Dokumentation hier.

[/de]

[en]Generic HTML Form Processor is a free and open-source program for facilitating data collection with HTML forms.

It parses the input from any HTML form, then it automatically creates a MySQL database with one table in it containing columns that are named according to the variables that were submitted through the HTML form. Thus, Generic HTML Form Processor relieves users from writing a script that parses form input and writes it into a database as well as from setting up a database.

You can use Generic HTML Form Processor for one-page studies, multiple-page studies, with input validation, random assignment of participants to experimental conditions, skip patterns, and password-protection. For details, see the examples and links at the bottom of this page.

The use of Generic HTML Form Processor is described in: Göritz, A. S. & Birnbaum, M. H. (2005). Generic HTML Form Processor: A versatile PHP Script to save Web-collected data into a MySQL database. Behavior Research Methods, 37(4), 703-710.

The full text of this article can be downloaded here.  Accompanying material can be downloaded here. The program can be downloaded here.

[/en]

[de]Generic HTML Form Processor ist ein freies und open-source Program zur Erleichterung der Datensammlung mit HTML forms.

Es analysiert den Input jeder HTML form, und anschließend erstellt es automatisch eine MySQL database inklusive einer Tabelle, welche Spalten enthält, die entsprechend der Variablen, die durch die HTML form überreicht wurden, benannt sind. Generic HTML Form Processor erleichtert die Nutzer also sowohl um das Schreiben eines Skripts, welches den form-input analysiert und in eine Database schreibt als auch um das Erstellen einer Database.

Du kannst Generic HTML Form Processor nutzen für one-page studies, multiple-page studies, mit input validation, zufälliger Zuweisung von Teilnehmern zu Experimentalgruppen, skip patterns und Passwortschutz. Für mehr Informationen: schau dir die Beispiele und Links am Ende des Beitrags an.

Die Benutzung von Generic HTML Form Processor wird beschrieben in: Göritz, A. S. & Birnbaum, M. H. (2005). Generic HTML Form Processor: A versatile PHP Script to save Web-collected data into a MySQL database. Behavior Research Methods, 37(4), 703-710.

Der komplette Text dieses Artikels kann hier gedownloaded werden. Begleitendes Material kann hier gedownloaded werden. Das Programm kann hier gedownloaded werden.

[/de]

[en]A couple of weeks ago I presented my first presentation with LaTeX. It took some time longer, and especially as the deadline was approaching I was very close to switching back to powerpoint. But now I am glad I didn’t, because I rediscovered the ABC of what I like about LaTeX approach.

  1. Automaticity: Once you learn LaTeX, you don’t have to make a reference list or table of contents

  2. Beauty: The beamer-themes just look really really good. They give the right amount of information on every slide, and leave ample space for your contents.

  3. Compatibility: As you are presenting PDFs you can be sure, that they will look similar across different computers.

Here is a minimal example of a presentation with table of contents, several slides, animation, images, references, and Umlauts. Of course, I am not the first to use the beamer class, I particularly like this introductory site because it has many examples for the different themes, and has both an English and German version. You will find many more if you just google for specific commands (e.g. “\usetheme{Warsaw}”). In any case, I hope you find the example useful, all files necessary to adapt it to your own needs can be downloaded here.[/en]

[de]Vor einigen Wochen habe ich meine erste Präsentation mit LaTeX gehalten. Die Vorbereitung hat einige Zeit länger gebraucht, und vor allem als sich die Deadline näherte, stand ich ganz kurz davor, zurück zu Powerpoint zu wechseln. Jetzt bin ich froh, nicht gewechselt zu haben, weil ich das ABC bezüglich was ich an LaTeX mag wiederentdeckt habe:

  1. Automaticity: Wenn du einmal LaTeX gelernt hast, brauchst du kein Literatur- oder Inhaltsverzeichnis mehr zu machen

  2. Beauty: Das Folienlayout sieht wirklich wirklich schön aus. Es wird die richtige Menge an Informationen auf jeder Folie geliefert, wobei ausreichend Platz für deine Inhalte gelassen wird.

  3. Compatibility: Wenn du PDFs präsentierst, kannst du dir sicher sein, dass sie auf verschiedenen Computern trotzdem alle ähnlich aussehen.

Here ist ein kleines Beispiel mit Inhaltsverzeichnis, einigen Folien, Animationen, Bildern, Referenzen und Umlauten. Natürlich bin ich nicht der erste, der beamer class nutzt: besonders mag ich diese (this) Einführungsseite, weil sie viele Beispiele für verschiedene Themen hat und sowohl englische, als auch deutsche Versionen. Noch viele weiter Beispiele findest du, wenn du für spezifische Kommandos googlest (z.B. “\usetheme{Warsaw}”). In jedem Fall hoffe ich, dass du die Beispiele hilfreich findest. Alle Dateien, welche nötig sind um es an deine eigenen Bedürfnisse anzupassen können here downgeloaded werden./de]

[en]The concept of reproducible research with it’s core idea of being able to reproduce all figures, tables, and results in a manuscript is fascinating. The best way to implement this is by using R in combination with latex. However, it takes a while to get everything into place. There is some information about sweave on the authors’ webpage and  several others give great examples (here, and here).  However, these do not include citations, and as someone who needs Umlauts I also spent some time to find out how to include these. In the following I describe my final set of files that can be used to write small and not so small tutorials in statistics. All of which look like this example. Any comments are much aprecciated:

Overview

Stuff I installed: Texshop and Jabref. For both I set the standard encoding to UTF8.

Four files need to be in the same folder (“/temp/):

  1. the master-file that contains the text, R-code-chunks, and citations

  2. the bibtex-file that contains the references in bibtex-format

  3. Sweave.sty

  4. the R-skript that starts the sweave command and compiles the resulting Latex-document using pdflatex.

You can download the whole folder here.

The master file:

My Master-File contains

> > \documentclass[a4paper, 12pt, titlepage]{article} > > > > %\usepackage[ngerman]{babel} %delete comment for german > > > > \usepackage[pdftex]{graphicx} > > > > \usepackage[utf8]{inputenc} > > > > \usepackage{hyperref} > > > > \usepackage{Sweave} > > > > \usepackage[hyper]{apacite} > > > > \bibliographystyle{apacite} > > > > % > > > > %Begin Document > > > > % > > > > \begin{document} > > > > \title{A reproducible manuskript with Text (\LaTeX), Analysis (R), and References (Bibtex)} > > > > \author{Gerrit Hirschfeld \\ gerrit.hirschfeld@gmail.com} > > > > \date{\today} % Delete this line to display the current date > > > > \maketitle > > > > \tableofcontents > > > > \newpage{} > > > > \listoffigures > > > > \newpage{} > > > > \section{examples} > > > > \subsection{R-code chunk} > > > > \begin{figure}[htbp] > > > > \begin{center} > > > > <<fig=T>>= > > > > par(bty="l") > > > > x <- 1:10 > > > > y <- rnorm(x) > > > > plot(x,y) > > > > @ > > > > \caption{just random data} > > > > \end{center} > > > > \end{figure} > > > > \subsection{Citations} > > > > Some online-research \cite{Hirschfeld2010b, Thielsch2010} and psycholinguistics \cite{Hirschfeld2008, Hirschfeld2010, Hirschfeld2010a}. > > > > \newpage{} > > > > \bibliography{references} > > > > \end{document} > >

The Bibtex-file:

The Bibtex-file is generated with Jabref and contains the references that are used in the manuskript.

The R-code file:

The R-Code file looks like this.

setwd("/temp/")
Sweave("example.Snw")
system("/usr/texbin/pdflatex example.tex")
system("/usr/texbin/bibtex example")
system("/usr/texbin/pdflatex example.tex")
system("/usr/texbin/pdflatex example.tex")

This essentially only sweaves the master file “example.Snw”, i.e. it evaluates the code-chunks and writes the results to the file example.tex. The next lines of code repeatedly compile this tex-file, as this is necessary.[/en]

[de]Das Konzept der reproduzierbaren Forschung mit der Kernidee, dass alle Figuren, Tabellen und Ergebnisse im Manuskript reproduziert werden können, ist faszinierend. Die beste Idee, um das Konzept zu implementieren, ist durch die Benutzung von R in Kombination mit Latex. Es braucht allerdings einige Zeit, um alles an den richtigen Platz zu bekommen. Es gibt einige Informationen über sweave auf der webpage des Autors und andere Seiten geben gute Beispiele (here und here).  Diese beinhalten allerdings keine Zitierungen und als jemand, der auch mit Umlauten arbeitet, brauchte ich einige Zeit, um herauszufinden wie das funktioniert. Im folgenden beschreibe ich mein final set von Dateien, welches benutzt werden kann um  kleine und weniger kleine Statistikübungen zu schreiben. Diese sehen alle aus wie this example. Jegliche Kommentare sind gerne gesehen:

Überblick

Was ich vorher installiert habe: Texshop und Jabref. Für beide habe ich die Standardkodierung auf UTF8 gesetzt.

Vier Dateien müssen im gleichen Ordner (“/temp/) sein:

  1. die Masterdatei, welche den Text, R-code-chunks und Zitierungen enthält

  2. der Bibtexdatei, welche die Referenzen im Bibtex-Format enthält

  3. Sweave.sty

  4. das R-Skript, welches das sweave-Kommando startet und das resultierende Latex-Dokument unter Benutzung von pdflatex erstellt

Den gesamten Ordner kannst du here herunterladen.

Die Masterdatei:

Meine Masterdatei beinhaltet

> > \documentclass[a4paper, 12pt, titlepage]{article} > > > > %\usepackage[ngerman]{babel} %delete comment for german > > > > \usepackage[pdftex]{graphicx} > > > > \usepackage[utf8]{inputenc} > > > > \usepackage{hyperref} > > > > \usepackage{Sweave} > > > > \usepackage[hyper]{apacite} > > > > \bibliographystyle{apacite} > > > > % > > > > %Begin Document > > > > % > > > > \begin{document} > > > > \title{A reproducible manuskript with Text (\LaTeX), Analysis (R), and References (Bibtex)} > > > > \author{Gerrit Hirschfeld \\ gerrit.hirschfeld@gmail.com} > > > > \date{\today} % Delete this line to display the current date > > > > \maketitle > > > > \tableofcontents > > > > \newpage{} > > > > \listoffigures > > > > \newpage{} > > > > \section{examples} > > > > \subsection{R-code chunk} > > > > \begin{figure}[htbp] > > > > \begin{center} > > > > <<fig=T>>= > > > > par(bty="l") > > > > x <- 1:10 > > > > y <- rnorm(x) > > > > plot(x,y) > > > > @ > > > > \caption{just random data} > > > > \end{center} > > > > \end{figure} > > > > \subsection{Citations} > > > > Some online-research \cite{Hirschfeld2010b, Thielsch2010} and psycholinguistics \cite{Hirschfeld2008, Hirschfeld2010, Hirschfeld2010a}. > > > > \newpage{} > > > > \bibliography{references} > > > > \end{document} > >

Die Bibtexdatei:

Die Bibtexdatei wurde mit Jabref generiert und beinhaltet die Referenzen, die im Manuskript genutzt werden.

Der R-code :

Die R-Code-datei sieht folgendermaßen aus.

setwd("/temp/")
Sweave("example.Snw")
system("/usr/texbin/pdflatex example.tex")
system("/usr/texbin/bibtex example")
system("/usr/texbin/pdflatex example.tex")
system("/usr/texbin/pdflatex example.tex")

Im Wesentlichen wird dadurch nur die Masterdatei “example.Snw” gesweaved, die Code-chunks werden bewertet und die Ergebnisse werden in die Datei example.tex geschrieben. Die nächsten Zeilen des Codes erstellen wiederholt diese tex-Datei, da dies notwendig ist.[/de]

[de] Manchmal möchte man den Probanden in einer Online-Studie ein Video zeigen. Nicht jedes Video funktioniert mit herkömmlicher Befragungssoftware. Hier kann der Flowplayer helfen.

Wie man mit diesem ein Video online präsentieren (und damit auch in eine Online-Befragung einbinden) kann, ist hier beschrieben.

Pro: Es ist wirklich einfach und die Beschreibung und Beispielse sehr hilfreich.

Contra: Eine Flowplayer-Version mit mehr Funktionen ist leider nicht mehr frei und open source. Für meine Zwecke reichte bisher aber die freie Basisversion.

[/de] [en] Sometimes you would like to show a video to your participants in an online survey. But not every type of video is working in standard online survey software. Here you could just use Flowplayer.

How to present a video online (and thus showing it in an online survey as well) is described here.

Pro: It is really easy and the given examples are very helpful.

Con: A more powerful version of Flowplayer is sadly not free and open source. But for me the basis version provided enough functions. [/en]

[en]

Once in a while one has to determine the power of an experiment, the effect size, or the adequate sample size. Nearly all statistical programs allow to determine the effect size of an experiment and/or its power. But why powering up SPSS, when a small tool would do as well if not better?

GPower 3 offers different types of statistical power analysis. Typically one uses a-priori or post-hoc.  GPower 3 is available for Mac OS X 10.4 and Windows XP/Vista. It has been described in

Faul, F., Erdfelder, E., Lang, A., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39(2), 175-191.

It can be downloaded here.

[/en]

[de]

Ab und zu muss man die Power eines Experimentes, die Effektgröße oder die passende Stichprobengröße bestimmen. Fast alle Statistikprogramme erlauben das mittlerweile. Aber warum soll man SPSS starten, wenn ein kleines Tool die Aufgabe genauso gut, wenn nicht gar besser, erledigt?

GPower 3 bietet verschiedene Arten der statistischen Poweranalyse. Üblicherweise verwendet man a-priori oder post-hoc. GPower 3 ist für Mac OS X 10.4 und Windows XP/Vista verfügbar. Es wurde in:

Faul, F., Erdfelder, E., Lang, A., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39(2), 175-191

beschrieben.

Hier kann es herunter geladen  werden.

[/de]

[en]

Praat is a multifunctional tool for speech analysis and synthesis. You can use it for transcriptions, signal manipulations (e.g. editing, altering stimuli duration or pitch manipulations), recognition experiments (e.g., yes-no decisions, but no latencies), acoustic-phonetic measurements. It produces nice spectrogram- and other plots. Praat comes with an implemented scripting language which allows automatized processing of stimuli.

However, Praat’s handling is absolutely non-intuitive for windows users and/or no-programmers and the massive manual is not too helpful for beginners. Thus, a brief introduction by a colleague will save a lot of time and effort.

(If you want to use it for annotations only, ELAN may be the better option)

Visit this page for beginners’ tutorials. For more help, join this yahoo user-group.

[/en]

[de]

Praat ist eine multifunktionales Werkzeug für Sprachanalyse und Sprachsynthese. Man kann es für Transkriptionen, Singalmanipulationen (z. B. Editieren,  Pitchmanipulation, Stimulusdaueränderungen), Wiedererkennensexperimente (z. B. ja-nein Entscheidungen ohne Reaktionszeiten) oder akustisch-phonetische Messungen verwenden. Die Plots, die es produziert, sind ausgesprochen gut. Man kann Praat mit Hilfe seiner Skriptsprache steuern, die somit die automatisierte Verarbeitung von Stimuli ermöglicht.

Leider ist die Bedienung von Praat absolut nicht-intuitiv. Das ausführliche Manual hilft dem Anfänger leider häufig auch nicht weiter.

(Wenn man Stimuli nur annotieren möchte, ist ELAN vielleicht die bessere Alternative).

Tutorials für Anfänger findet man hier.  Hilfe und Unterstützung findet man auch in dieser yahoo user-group.

[/de]