Programme for International Student Assessment 2009 (PISA 2009)
Inhaltsverzeichnis
Hinweise zur Nutzung der Daten
> Scientific Use Files beantragen
Datensatz veröffentlicht am | 01.07.2013 |
---|---|
aktuelle Version verfügbar seit | 01.07.2013 |
Erhebungszeitraum | 2009 |
Stichprobe | Schüler*innen (15-jährig sowie der Jahrgangsstufe 9) (N=ca. 10.000) an allgemeinbildenden Schulen (N=214); Lehrkräfte (N=2.201); Schulleitung (N=226) |
Erhebungseinheit | Eltern Lehrkräfte Schüler*innen Schulleitung |
erfasste Kompetenzen | Deutsch - Leseverständnis, Mathematik, Naturwissenschaften |
Region | deutschlandweit, Baden-Württemberg, Bayern, Berlin, Brandenburg, Bremen, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz, Saarland, Sachsen, Sachsen-Anhalt, Schleswig-Holstein, Thüringen |
Leitung | Klieme, Prof. Dr. Eckhard |
Datengebende | Konferenz der Kultusminister (KMK) |
Auftraggebende / Mittelgebende | Kultusministerkonferenz (KMK), Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) |
Link zur Studie | https://www.pisa.tum.de/pisa/pisa-2000-2018/pisa-2009/ |
Verwandte Studien | PISA 2000 (DOI: 10.5159/IQB_PISA_2000_v1), PISA 2003 (DOI: 10.5159/IQB_PISA_2003_v1), PISA 2006 (DOI: 10.5159/IQB_PISA_2006_v1), PISA 2012 (DOI: 10.5159/IQB_PISA_2012_v5), PISA 2015 (DOI: 10.5159/IQB_PISA_2015_v3), PISA 2018 (DOI: 10.5159/IQB_PISA_2018_v1), PISA-I-Plus 2003-4 (DOI: 10.5159/IQB_PISA_I_Plus_v1), PISA Plus 2012-13 (DOI: 10.5159/IQB_PISA_Plus_2012-13_v2) |
Zitationsvorschlag | Klieme, E., Artelt, C., Hartig, J., Jude, N., Köller, O., Prenzel, M., Schneider, W. & Stanat, P. (2013). Programme for International Student Assessment 2009 (PISA 2009) (Version 1) [Datensatz]. Berlin: IQB – Institut zur Qualitätsentwicklung im Bildungswesen. http://doi.org/10.5159/IQB_PISA_2009_v1 |
Datenrestriktion / Zugangshinweise | Kognitive Grundfähigkeiten dürfen nicht als abhängige Variable in den Analysen verwendet werden. |
Projektbeschreibung
Das Deutsche Institut für Internationale Pädagogische Forschung (DIPF) in Frankfurt/Main hat die nationale Projektleitung der PISA 2009-Studie übernommen (PISA 2009). Auch in dieser PISA-Erhebungswelle galt es zu klären, wie gut 15-jährige Schüler*innen auf die Anforderungen der Wissensgesellschaft und auf lebenslanges Lernen vorbereitet sind. Die Testaufgaben von PISA richten sich demzufolge nicht an spezifischen Lehrplänen aus, sondern an Wissen und Fähigkeiten, die im privaten und beruflichen Alltag zum Einsatz und zum Erwerb von Wissen benötigt werden. Wie in PISA 2000, PISA 2003 und PISA 2006 wurden die Kompetenzbereiche Lesen, Mathematik und Naturwissenschaften erfasst. Der Schwerpunkt in PISA 2009 galt der Feststellung der Lesekompetenz. Neben den Kompetenzen von Schüler*innen im Lesen, in Mathematik und in den Naturwissenschaften wurden wie auch bei den bisherigen PISA-Studien weitere Daten über Einstellungen der Schüler*innen, über den Schulkontext, über demographische Merkmale und Angaben über den sozialen, kulturellen und familiären Hintergrund erhoben. Darüber hinaus dienten Fragebögen für die Lehrkräfte, Schulleitungen und Eltern der Erfassung weiterer relevanter Hintergrundmerkmale. In Deutschland wurde von der Option der schuljahrgangsbezogenen Erhebungen Gebrauch gemacht. Neben der international üblichen Stichprobe der 15-Jährigen, die aus Schüler*innen in Schulen gezogen wurden, gibt es auch eine Stichprobe, die sich aus jeweils zwei Klassen der 9. Jahrgangstufe jeder gezogenen Schule der internationalen Stichprobe zusammensetzt. (Projekt/IQB)
Zu beachten:
Ländervergleich seit 2009 als eigenständige Studie
Während bei Anträgen auf die PISA-Daten der Erhebungen 2000, 2003 und 2006 jeweils die deutschen Datensätze aus der internationalen und der nationalen Ergänzungsstudie (PISA-I bzw. PISA-E) gemeinsam ausgeliefert werden, wurde die nationale Ergänzungsstudie mit der Erhebung 2009 durch den IQB-Ländervergleich abgelöst. Dieser wird nicht automatisch mit den Daten der internationalen Studie PISA 2009 mitgeliefert, ist aber auf Antrag ebenfalls am Forschungsdatenzentrum des Instituts zur Qualitätsentwicklung im Bildungswesen erhältlich. Weitere Informationen zum IQB-Ländervergleich finden Sie hier und hier.
Leerdatensätze
Um Ihnen einen ersten Überblick der Datensätze zu vermitteln, haben Sie hier die Möglichkeit, Leerdatensätze herunterzuladen.
- PISA 2009 Daten Schüler und Eltern (SPSS)
- PISA 2009 Daten Schulleitung (SPSS)
- PISA 2009 Daten Lehrkräfte (SPSS)
Dokumentation
Hier finden Sie weiterführendes Material zur Studie:
Hinweise zur Nutzung der Daten
Sind die Kompetenzschätzer der PISA-, IGLU- und IQB-LV/BT-Studien miteinander vergleichbar?
Prinzipiell korrelieren die Tests aus PISA und den IQB-Ländervergleichen bzw. IQB-Bildungstrends hoch, aber die zugrunde liegenden Kompetenzmodelle unterscheiden sich. Die IQB-Tests sind an den Bildungsstandards der KMK und damit stärker am Curriculum orientiert als die PISA-Tests. Eine Testung der Vergleichbarkeit ist möglich mit IRT-Methoden auf Basis von Studien, in denen sowohl PISA als auch IQB-LV/IQB-BT Items verwendet wurden. Einige Studien zum Vergleich sind z. B.:
Jude, Nina [Hrsg.]; Klieme, Eckhard [Hrsg.]: PISA 2009 - Impulse für die Schul- und Unterrichtsforschung. Weinheim u.a. : Beltz 2013, S. 200-228. - (Zeitschrift für Pädagogik, Beiheft; 59)
- Hartig, Johannes; Frey, Andreas: Validität des Tests zur Überprüfung des Erreichens der Bildungsstandards in Mathematik. Göttingen: Hogrefe 2012, S. 3-14. - (Diagnostica, Jahrgang 58, Heft 1) - https://doi.org/10.1026/0012-1924/a000064
van den Ham, Ann-Katrin; Ehmke, Timo; Hahn, Inga; Wagner, Helene; Schöps, Katrin: Mathematische und naturwissenschaftliche Kompetenz in PISA, im IQB-Ländervergleich und in der National Educational Panel Study (NEPS) – Vergleich der Rahmenkonzepte und der dimensionalen Struktur der Testinstrumente - In: Bundesministerium für Bildung und Forschung [Hrsg.]: Forschungsvorhaben in Ankopplung an Large-Scale-Assessments. Stand August 2016. Berlin : Bundesministerium für Bildung und Forschung 2016, S. 140-160 - URN: urn:nbn:de:0111-pedocs-126776
Das Ausmaß der Vergleichbarkeit muss für die Lese- und Mathematikkompetenzen sowie für die Sekundarstufe und Grundschule getrennt betrachtet werden. Auch wenn man davon ausgehen kann, dass sich Länderunterschiede mit beiden Maßen gut abbilden lassen, ist die Analyse von absoluten Trends auf einer gemeinsamen Metrik aber leider nicht möglich.
Die Datensätze der Studien PISA 2012 und IQB-Ländervergleich 2012 lassen sich über die ID-Variable [idstud_FDZ] miteinander verknüpfen. Dadurch können Sie Zusammenhänge zwischen den skalierten Testwerten beider Studien miteinander vergleichen.
Beachten Sie bitte zusätzlich:
1.) Anders als in den PISA-Erhebungen werden Lese- und Mathematikkompetenz in den IQB-Studien nur in der Grundschule gemeinsam getestet: Die Lesekompetenzen wurden im IQB-Ländervergleich 2009 (Sekundarstufe I) und im IQB-Ländervergleich 2011 (Grundschule) sowie im IQB-Bildungstrend 2015 (Sekundarstufe I) und im IQB-Bildungstrend 2016 (Grundschule) erfasst. Die Mathematikkompetenzen können Sie dem IQB-Ländervergleich 2012 (Sekundarstufe) und IQB-Ländervergleich 2011 (Grundschule) sowie dem IQB-Bildungstrend 2016 (Grundschule) und dem IQB-Bildungstrend 2018 (Sekundarstufe) entnehmen.
2.) Wenn Sie Analysen durchführen möchten, die unveröffentlichte, neuartige Vergleiche zwischen einzelnen Bundesländern beinhalten, gilt laut unserer Verfahrensordnung ein erweitertes Antragsverfahren mit Reviewprozess.
Gibt es in den IQB-Ländervergleichen/Bildungstrends sowie in PISA die Möglichkeit, eine (tagesgenaue) Erfassung des Alters der Schüler*innen vorzunehmen?
Angaben zum Geburtsjahr und Geburtsalter der Schüler*innen werden standardmäßig in den IQB-Ländervergleichen und PISA-Studien erhoben und stehen für Re- und Sekundäranalysen der Daten zur Verfügung. Tagesgenaue Angaben zum Geburtsdatum wurden aus datenschutzrechtlichen Gründen allerdings nicht erfasst und liegen in den Datensätzen nicht vor. Auch das genaue Testdatum ist in den meisten Datensätzen nicht enthalten (in PISA 2009 liegen diese Angaben vor). Häufig ist in den Datensätzen aber eine Altersvariable enthalten, die unter Verwendung des Geburtsjahrs und -monats in Relation zum Testdatum gebildet wurde (z. B. in den IQB-Ländervergleichen 2011, 2012 sowie in PISA 2012, 2009, 2006).
Welche nationalen PISA-Daten lassen sich mit den IQB-Ländervergleichen/Bildungstrends oder den internationalen PISA-Daten verknüpfen?
Die PISA-2012-Datensätze lassen sich mit den Daten des IQB-Ländervergleichs 2012 kombinieren. Die Schüler*innen-IDs wurden in den am FDZ am IQB verfügbaren Datensätzen schon so rekodiert, dass eine Verknüpfung beider Datenquellen möglich ist. Eine Verknüpfung der anderen PISA-Wellen mit den Daten der IQB-Ländervergleichen/IQB-Bildungstrends ist leider nicht möglich, da sich die ID-Variablen nicht einheitlich rekodieren lassen.
Auf welchen Ebenen wurden die Deutschland-PISA-Daten erfasst?
In den deutschen PISA-Studien liegen lediglich Informationen auf Bundeslandebene vor. Bitte beachten Sie, dass bei der Analyse von Bundesland-Daten besondere Nutzungsbedingungen eingehalten werden müssen. Diese können Sie hier nachlesen:
Verfahrensordnung Stand: 31.01.2019
Verfahrensordnung - neuartige Ländervergleiche Stand: 31.01.2019
Wie hoch ist die Anzahl der gezogenen Klassen pro Schule in PISA-Erhebungen?
Informationen zur Stichprobenziehung in den Studien finden Sie in den Ergebnisberichten bzw. Skalenhandbüchern.
Hier eine kurze Zusammenfassung zur Stichprobenziehung in PISA:
PISA 2000:
zufällige Auswahl von 28 15-Jährigen sowie 10 nicht 15-Jährigen Neuntklässlern pro Schule; es wurden also nicht vollständige Klassen gezogen, Analysen können nur auf Schulebene durchgeführt werden
PISA 2003:
zufällige Auswahl von 15-Jährigen pro Schule; zusätzlich wurden für die nationale Erweiterung zwei komplette 9. Klassen pro Schule gezogen; in den PISA-E-Daten wurde allerdings keine klassenbasierte Stichprobenziehung realisiert.
PISA 2006:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15-Jährigen pro Schule, an den Schulen der internationalen Stichprobe (PISA_I) wurden zusätzlich Schüler*innen aus zwei kompletten 9. Klassen getestet
PISA 2009:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet
PISA 2012:
schulbasierte Stichprobenziehung, zusätzlich wurden Schüler*innen aus zwei kompletten 9. Klassen pro Schule getestet
PISA 2015:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule
PISA 2018:
schulbasierte Stichprobenziehung, anschließend zufällige Auswahl von 15 Schüler*innen einer 9. Klasse innerhalb einer Schule
Wie viele Schüler*innen an Förder- und Berufsschulen sind in den PISA-Daten enthalten?
Die Förder- und Berufsschüler*innen wurden in den genannten PISA-Erhebungen getrennt erfasst. Nachfolgend finden Sie die Stichprobenumfänge für diese Teilgruppen. Sie basieren auf den Angaben in den deutschen PISA-Erweiterungsstichproben (PISA-E) in den Schüler*innen- und Schulleitungsdatensätzen. Gegebenenfalls kann es zu leichten Abweichungen zu den berichteten Stichproben in den Ergebnisberichten kommen.
PISA 2000 E:
- 9. Klasse: n= 11 Schüler*innen an Berufsschulen, n= 22 Schüler*innen an Förderschulen von insgesamt n = 34.754 Schüler*innen
- 15-Jährige: n= 241 Schüler*innen an Berufsschulen, n= 799 Schüler*innen an Förderschulen von insgesamt n= 35.584 Schüler*innen
- Schuldatensatz: n= 18 Berufsschulen, n= 4 Förderschulen von insgesamt n= 1.342 Schulen
PISA 2003 E (hier keine Differenzierung zwischen Datensätzen für 9. Klasse & 15-Jährige möglich)
- 9. Klasse: n= 654 Schüler*innen an Berufsschulen, n= 1.712 Schüler*innen an Förderschulen von insgesamt n= 46.185 Schüler*innen
- Schuldatensatz: n= 43 Berufsschulen, keine Förderschulen von insgesamt n= 1.411 Schulen
PISA 2006 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz
- 15-Jährige: n= 625 Schüler*innen an Berufsschulen, n= 2.560 Schüler*innen an Förderschulen von insgesamt n= 39.573 Schüler*innen
- Schuldatensatz: n= 42 Berufsschulen, keine Förderschulen von insgesamt n= 1.496 Schulen
PISA 2009 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen oder Förderschulen im Datensatz von insgesamt n= 9.461
- Schuldatensatz: n= 9 Berufsschulen, n= 13 Förderschulen von insgesamt n= 226 Schulen
PISA 2012 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 153 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 9.998 Schüler*innen
- 15-Jährige: n= 99 Schüler*innen an Berufsschulen, n= 139 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.001 Schüler*innen
- Schuldatensatz: n= 7 Berufsschulen, n= 12 Förderschulen von insgesamt n= 230 Schulen
PISA 2015 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 165 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 4.149 Schüler*innen
- 15-Jährige: n= 160 Schüler*innen an Berufsschulen, n= 134 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 6.504 Schüler*innen
- Schuldatensatz: n= 8 Berufsschulen, n= 12 Förderschulen von insgesamt n= 205 Schulen
PISA 2018 E:
- 9. Klasse: keine Schüler*innen an Berufsschulen, n= 115 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 3.567 Schüler*innen
- 15-Jährige: n= 184 Schüler*innen an Berufsschulen, n= 98 Schüler*innen an Förderschulen im Datensatz von insgesamt n= 5.451 Schüler*innen
- Schuldatensatz: n= 10 Berufsschulen, n= 7 Förderschulen von insgesamt n= 191 Schulen
Lassen sich Lehrkräfte- und Schüler*innendaten in PISA verknüpfen?
Leider ist eine Verknüpfung nur für die Teildatensätze der 9. Klässler*innen möglich (die Datensätze der 15-Jährigen umfassen schulübergreifende Stichproben). In den meisten PISA-Wellen wurden zwei 9. Klassen gezogen, aber in den Teildatensätzen fehlt häufig eine eindeutige Klassen-ID.
Hier eine Übersicht in Stichpunkten zu den einzelnen PISA-Wellen:
PISA 2000:
hier wurde kein Lehrkräfte-Fragebogen eingesetzt
PISA 2003:
Teildatensatz "PISA-I-9.Klasse": Lehrkräfte-Fragebögen beinhalten Fragen auf Schulebene, nicht auf Klassenebene; eine Verknüpfung über die Variable [idclass_FDZ] ist möglich, aber im Lehrkräftedatensatz gibt es auf dieser Variable einen hohen Anteil fehlender Werte (vermutlich, da viele Lehrkräfte pro Schule befragt wurden); Teildatensatz "PISA-E": keine Lehrkräftefragebogen vorhanden
PISA Plus 2003-2004:
eine Verknüpfung ist prinzipiell möglich, aber Lehrkräftedaten müssten aus PISA-2003-Daten herangespielt werden und liegen nur zum ersten Messzeitpunkt vor
PISA 2006:
Teildatensatz "PISA-E": kein Lehrkräftedatensatz für 9.Klassen vorhanden, Verknüpfung nur auf Schulebene möglich; Teildatensatz "PISA-I": keine eindeutige Verknüpfung möglich, da im Lehrkräftedatensatz keine Klassen-ID enthalten ist
PISA 2009:
ebenfalls keine Klassen-ID im Lehrkräftedatensatz, aber Verknüpfung über idsch und Variable [LF39M01] (Deutsch in PISA Klasse unterrichtet: ja vs. nein) teilweise möglich; es wurden allerdings pro Schule zwei 9. Klassen gezogen
PISA 2012:
Verknüpfung ist prinzipiell über Variablen zur Klassenbezeichnung möglich (Lehrkräfte-Datensatz: klasse_FDZ; Schüler*innendatensatz: ClassName_FDZ) aber praktisch schwierig zu bewerkstelligen, da Metrik der Schul-ID zwischen beiden Teildatensätzen nicht korrespondiert und auf Variablen zur Klassenbezeichnung hoher Anteil fehlender Werte vorliegt (Erfahrungsberichte der PISA-Mitarbeiter*innen interpretiere ich so, dass Verknüpfung in Mehrheit der Fällen nicht gelingt)
PISA 2015:
Verknüpfung ist nicht direkt möglich, da alle Lehrkräfte der gezogenen Schulen befragt wurden
PISA 2018:
Eine Zuordnung zwischen Lehrkräften und Schüler*innen über die Variable "TEACHCLASS_ID" ist bis Ende 2022 aufgrund eines Sperrvermerks nicht möglich. Diese Variable beinhaltet aber auch nur die Information, ob die Lehrkraft eine neunte Klasse unterrichtet hat oder nicht. Das liegt daran, dass nahezu alle Lehrkräfte in der gezogenen Schule befragt wurden. Alternativ kann die Variable "TEACHERID" verwenden werden, aber auch diese Variable ermöglicht keine eindeutige Zuordnung zwischen Schüler*innen und dazugehöriger Lehrkraft.
Für welche PISA-Daten liegt ein Messwiederholungsdatensatz vor?
Ein Messwiederholungsdatensatz liegt für PISA-2003 (PISA-Plus 2003, 2004) und PISA-2012 (PISA-Plus 2012, 2013)
Wie wurden die Tests zur naturwissenschaftlichen Kompetenz in PISA entwickelt?
Im Gegensatz zu den IQB-Ländervergleichen sind die naturwissenschaftlichen Tests in PISA nicht curricular verankert bzw. fachspezifisch konzipiert. Deshalb gibt es in PISA keine Subtests für Biologie, Physik und Chemie. Vielmehr wird in PISA eine naturwissenschaftliche Grundbildung (Scientific Literacy, siehe z. B. OECD, 2006) getestet. Dabei handelt es sich um Fähigkeiten, die in Situationen bedeutsam sind, in denen man mit Naturwissenschaften und Technik konfrontiert ist. Diese Situationen beziehen sich auf physikalische Systeme, lebende Systeme, Erd- und Weltraumsysteme und technologische Systeme. Konkret werden die folgenden Kompetenzen getestet:
a) naturwissenschaftliche Fragestellungen erkennen
b) naturwissenschaftliche Phänomene beschreiben, erklären und vorherzusagen
c) naturwissenschaftliche Evidenz nutzen, um Entscheidungen zu treffen
Nähere Informationen zur Konzeption und zum Test (inklusive Beispielaufgaben) finden Sie hier:
- OECD 2015 Assessment / Framework
- PISA Scientific Literacy
OECD: How PISA measures science literacy
- in diesem Ergebnisbericht (für Deutschland) sowie hier
- Prenzel, M., Artelt, C., Baumert, J., Blum, W., Hammann, M., Klieme, E., Pekrun, R. (Hrsg.) (2008). PISA 2006 in Deutschland : Die Kompetenzen der Jugendlichen im dritten Ländervergleich. Münster: Waxmann.
Warum gibt es in der PISA 2009-Studie keine Teildatensätze für 15-Jährige und 9.Klässler*innen wie in den anderen PISA-Studien?
Leider haben wir vom datengebenden Konsortium nur die PISA 2009-Daten der Neuntklässler*innen erhalten. Die PISA 2009-Daten der 15-Jährigen sind auf der Seite der OECD frei verfügbar.
Wann wurde in Deutschland die PISA 2009-Testung durchgeführt?
In Deutschland wurde die PISA 2009-Studie im April und Mai 2009 durchgeführt; weitere Informationen zur Durchführung finden Sie im Ergebnisbericht zu PISA 2009 in Deutschland (S. 16ff.).
Literatur
Eine Auswahl an Publikationen finden Sie in dieser Literaturliste (Stand: 24.03.2023).
2022
Camarero Garcia, S. (2022). Inequality of Educational Opportunities and the Role of Learning Intensity. Labour Economics, 74(4), 102084. https://doi.org/10.1016/j.labeco.2021.102084
Gutfleisch, T. & Kogan, I. (2022). Parental occupation and students’ STEM achievements by gender and ethnic origin: Evidence from Germany. Research in Social Stratification and Mobility, 82(100735). https://doi.org/10.1016/j.rssm.2022.100735
2020
Camarero Garcia, S. (2020) Inequality of Educational Opportunities and the Role of Learning Intensity (ZEW Discussion Paper 18-021). Mannheim: Zentrum für Europäische Wirtschaftsforschung. Accessed 09.05.2022. Retrieved from http://ftp.zew.de/pub/zew-docs/dp/dp18021.pdf
Roller, M. & Steinberg, D. (2020). The distributional effects of early school stratification - non-parametric evidence from Germany. European Economic Review, 125, 103422. https://doi.org/10.1016/j.euroecorev.2020.103422
2019
Andrietti, V. & Su, X. (2019). Education curriculum and student achievement: theory and evidence. Education Economics, 27(1), 4–19. https://doi.org/10.1080/09645292.2018.1527894
Güntherodt, S. (2019). Resilienz beeinflussende Faktoren im Unterricht von Schülerinnen und Schülern mit sonderpädagogischem Förderbedarf in der Lernentwicklung unter Bezugnahme der PISA Forschung - Unveröffentlichte Staatsexamensarbeit. Universität Leipzig, Leipzig.
2018
Autorengruppe Bildungsberichterstattung. (2018). Bildung in Deutschland 2018. Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration. Bielefeld: wbv. https://doi.org/10.3278/6001820fw
Huebener, M., Kuger, S. & Marcus, J. (2018). G8-Schulreform verbessert PISA-Testergebnisse. Insbesondere leistungsstarke SchülerInnen profitieren. DIW-Wochenbericht, 85(13/14), 265–275. https://doi.org/10.18723/diw_wb:2018-13-1
Jores, D. & Leiss, L. M. (2018). Die Kontroversen um PISA und Co. sowie eine Untersuchung zur Einstellung von Lehrkräften und Schulleitern zu Large Scale Assessments - Unveröffentlichte Bachelorarbeit. Johannes-Gutenberg-Universität Mainz, Mainz.
2017
Bartig, S., Bosswick, W. & Heckmann, F. (2017). Vielfaltsmonitor. Studie zum Umgang mit ethnischer und religiöser Vielfalt in Deutschland - Bericht an die Bertelsmann Stiftung (1 Aufl.). Bamberg: Europäisches Forum für Migrationsstudien.
Horlboge, J. C. (2017). Elterliche Bildungsaspiration und soziokulturelle Herkunft in der PISA-Studie. Eine Sekundäranalyse des Zusammenhangs zweier Konstrukte im Kontext sozialer Herkunft - Unveröffentlichte Masterarbeit. Universität Göttingen, Göttingen.
Huebener, M., Kuger, S. & Marcus, J. (2017). Increased instruction hours and the widening gap in student performance. Labour Economics, 47, 15–34. https://doi.org/10.1016/j.labeco.2017.04.007
Roller, M. & Steinberg, D. (2017) The Distributional Effects of Early School Stratification - Non-Parametric Evidence from Germany (WWZ Working Paper 2017/20). Basel: Center of Business and Economics - University of Basel. Accessed 19.08.2021. Retrieved from https://ideas.repec.org/p/bsl/wpaper/2017-20.html
2016
Andrietti, V. (2016) The causal effects of an intensified curriculum on cognitive skills : Evidence from a natural experiment (UC3M WP Economic Series 16-06). Madrid: Universidad Carlos III de Madrid. Accessed 11.08.2021. Retrieved from http://hdl.handle.net/10016/22880
Autorengruppe Bildungsberichterstattung. (2016). Bildung in Deutschland 2016. Ein indikatorengestützter Bericht mit einer Analyse zu Bildung und Migration. Bielefeld: Bertelsmann. https://doi.org/10.3278/6001820ew
Nikolaus, J. (2016). Soziale Ungleichheit im deutschen Bildungssystem: Welche herkunftsspezifischen Einflüsse auf die Lesekompetenz von 15-jährigen Schülerinnen und Schülern gibt es in Deutschland und haben sie sich im Zeitverlauf verringert? Eine Analyse der PISA-Daten im Zeitvergleich - Unveröffentlichte Masterarbeit. Universität Kassel, Kassel.
Schoor, C. (2016). Utility of reading — Predictor of reading achievement? Learning and Individual Differences, 45, 151–158. https://doi.org/10.1016/j.lindif.2015.11.024
2014
Hauschildt, J. (2014). The Effects of Ability Grouping within Schools on Educational Outcomes - an Empirical Approach - Unveröffentlichte Masterarbeit. Universität Hamburg, Hamburg.
Hertel, S., Hochweber, J., Mildner, D., Steinert, B. & Jude, N. (2014). PISA 2009 Skalenhandbuch. Münster: Waxmann. Verfügbar unter https://nbn-resolving.org/urn:nbn:de:0111-opus-95542
2013
Jude, N. & Klieme, E. (Hrsg.). (2013). PISA 2009 - Impulse für die Schul- und Unterrichtsforschung (Zeitschrift für Pädagogik Beiheft 59). Weinheim u.a.: Beltz.
Klieme, E., Artelt, C., Hartig, J., Jude, N., Köller, O., Prenzel, M., Schneider, W. & Stanat, P. (2013). Programme for International Student Assessment 2009 (PISA 2009) (Version 1) [Datensatz]. Berlin: IQB - Institut zur Qualitätsentwicklung im Bildungswesen. https://doi.org/10.5159/IQB_PISA_2009_v1
2010
Klieme, E., Artelt, C., Hartig, J., Jude, N., Köller, O., Prenzel, M. et al. (Hrsg.). (2010). PISA 2009. Bilanz nach einem Jahrzehnt. Münster: Waxmann. Verfügbar unter https://content-select.com/de/portal/media/view/519cc78b-758c-40d1-9c81-29105dbbeaba
OECD (Hrsg.) (2010). Pisa 2009 Ergebnisse. Zusammenfassung.