[stangl] test & experiment: beispiele: intelligenzmodelle*)

Zurück zum Überblick
Der psychologische Test
Das psychologische Experiment

 

Kluge Leute können sich dumm stellen.
Das Gegenteil ist schwieriger.
Kurt Tucholsky

Wer sich dumm stellt,
kommt oft weiter als der,
der Schlauheit zeigt.
Guido Gezelle

Wenn man im Alltag über Intelligenz redet, gibt es selten zwei Menschen, die die gleiche Vorstellung darüber haben, was Intelligenz überhaupt sein soll. Der eine schließt auf Intelligenz, wenn eine Person gute Leistungen in der Schule erbringt oder sich einfach nur erfolgreich durchschlägt. Der andere hält es für intelligent, eine schwierige Denkaufgabe in möglichst kurzer Zeit zu lösen, ohne dass dies eine praktische Relevanz besitzen muss. Wieder ein weiterer ist davon überzeugt, dass ein großes Wissen oder ein gutes Verständnis für komplizierte Texte ein Hinweis auf Intelligenz sei.

Nicht-Psychologen stellen sich unter Intelligenz immer etwas Großartiges und Umfassendes vor, viele Psychologen hingegen als etwas sehr Nüchternes - eben als ein Rädchen von den vielen, die uns am Laufen halten. Es gibt keine einheitliche Definition von Intelligenz, und es gibt fast ebensoviele Theorien über sie wie Forscher, die sich mit ihr befassen. Den meisten Theorien ist aber gemeinsam, dass sie Intelligenz als eine Fähigkeit sehen, sich in neuen Situationen durch Einsicht zurechtzufinden oder Aufgaben durch Denken zu lösen. Entscheidend ist aber, dass dies nicht durch Erfahrung, sondern die schnelle Erfassung von Beziehungen ermöglicht wird. Mit anderen Worten: Intelligentere haben im allgemeinen schneller den Überblick über ein unbekanntes Gebiet.

Eine Arbeitsgruppe der American Psychological Association bezeichnete die Messung der Intelligenz einmal als eine der besten und nachhaltigsten Erfolgsgeschichten der wissenschaftlichen Psychologie (Neisser, Boodoo, Bouchard, Boykin, Brody & Ceci, 1996). Nach einem Jahrhundert solider und replizierter Forschung kam ihr Bericht zu dem Ergebnis, dass Intelligenz eine unübertroffene Messgröße ist, die Erfolge in Bildung und im Arbeitsleben ebenso vorhersagen kann wie Gesundheitsaspekte, z.B. die Lebenserwartung (vgl. dazu Rost, 2009).

Unter dem Subject "Was messen Intelligenztests?" schrieb Ulrich Gresch" am 3. Juni 2005 in der Newsgroup "de.sci.psychologie" auf die Frage eines Diskutanten, was denn "diese ominoese Intelligenz anderes sein soll, als das, was der Test misst" (Hervorhebungen von mir; W.S.): "Der Test misst das Verhalten von Menschen, z. B. wieviele Testaufgaben sie in begrenzter Zeit richtig lösen können. Man kann nun die Testwerte mit dem Verhalten von Menschen in anderen Bereichen korrelieren, z. B. in der Schule, an der Universität, im Beruf usw. Wenn sich nun herausstellt, dass die Testergebnisse mit einer Reihe von Verhaltensweisen korrelieren, mit anderen aber nicht, dann ist doch wohl die Frage berechtigt, was wohl die Gemeinsamkeit der Verhaltensweisen sein mag, mit denen die Intelligenztestwerte korrelieren. Man könnte dann z. B. auf die Idee kommen, der Test messe die Geschwindigkeit, mit der Menschen Probleme lösen können. Dann sucht man weitere Verhaltensweisen, bei der Problemlösungsgeschwindigkeit eine Rolle spielt und sagt voraus, dass die Testwerte auch hier wieder mit dem Verhalten in diesem Bereich korrelieren. Falls dies der Fall ist, steigt natürlich die Zuversicht, dass Problemlösungsgeschwindigkeit in der Tat eine Dimension dessen sei, was der Intelligenztest misst. Dann kann man nach weiteren Gemeinsamkeiten suchen oder den Begriff des Problemlösens differenzieren, in Teilaspekte aufbrechen und nach dem beschriebenen Verfahren weiter arbeiten. Du wirst aber schon bemerkt haben, dass es weniger darauf ankommt, was der Test misst, als was er vorhersagen kann - denn dies ist seine eigentliche Bestimmung. Wenn er die Zuordnung von Menschen zu Aufgaben verbessert, was man statistisch überprüfen kann, dann hat er seinen Zweck erfüllt. Dasselbe gilt auch für andere psychologische Tests. Intelligenz ist also nichts anderes als ein Name für die Gemeinsamkeiten von Verhaltensweisen, die man intuitiv mit den sog. "geistigen Leistungen" in Verbindung bringt. Intelligenz ist also keineswegs das, was der Intelligenztest misst, sondern ein Dimension zur Beschreibung und Vorhersage des Verhaltens von Menschen. Wenn ich beispielsweise sage, der Franz sei intelligent, dann verbinde ich damit die Erwarung, dass er in der Schule, im Beruf in der Ausbildung gut abschneidet und wenn er das in einzelnen Bereichen nicht tut, ist dies ein höchst erklärungsbedürftiger Umstand, der nicht unbedingt zur Revision des Urteils über Franzens Intelligenz führen muss. Das Urteil über Franzens Intelligenz beruht selbstverständlich auch auf Beobachtungen seines Verhaltens in einschlägigen Situationen. Dies ist der vorwissenschaftliche Intelligenzbegriff. Wenn ich diese Beobachtungen standardisiere und systematisiere durch eine Testsituation, dann gelange ich, so der Test gut ist, zu präziseren Vorhersagen. Intelligenz ist also nicht, was der Intelligenztest misst, sondern was im realen Leben außerhalb der Testsituation gemessen wurde. Die Bedeutung der Testwerte ergeben sich aus den Korrelationen mit Verhaltensweisen im realen Leben. Wer mehr darin sieht, verfällt der Intelligenz-Mystik".

Wenn Wissenschaftler über Intelligenz reden, schreiben und diskutieren wollen, müssen sie sich auf einen exakten gemeinsamen Sprachgebrauch einigen. Dabei ist es gar nicht so einfach, eine klare und eindeutige Definition für Intelligenz zu finden oder zu einer Einigung darüber zu kommen, wo Intelligenz denn herkommt und wie sie zu beeinflussen sei. Das Konstrukt der Intelligenz ist innerhalb der Psychologie sicherlich eines der umstrittensten, was wohl auch mit der hohen Wertigkeit zu tun hat, die allgemein in unserer Gesellschaft mit diesem Begriff verbunden wird.

NEU: testforum NEU: testforum NEU: testforum NEU: testforum NEU: testforum

Das Phänomen Intelligenz war bereits in der Antike bekannt, ebenso wie die Beobachtung, dass es zwei Ebenen geistiger Fähigkeiten gibt: die vorhandene Bildung einerseits und die Fähigkeit, neues Wissen aufzunehmen und damit umzugehen, andererseits. Diese Differenzierung ging im Mittelalter verloren, Intelligenz und Wissen wurden gleichgesetzt, es war undenkbar, dass ein Ungebildeter, des Lateinischen nicht Mächtiger, in wichtigen Fragen die richtigen, weisen Schlüsse ziehen könnte - klar zumindest für diejenigen, die diese Art von (Ein-)Bildung genossen hatten. Die Wortbedeutung des Mittelalters schwebt noch heute in dem englischen Wort 'intelligence' mit, was sich etwa darin äußert, dass CIA (Central Intelligence Agency) nicht mit Zentraler Intelligenz-Agentur übersetzt werden sollte. sollte ;-) Mit der Aufklärung besann man sich wieder auf die griechischen Philosophen und deren Thesen über intelligente Menschen. Man vermutete die Ursache für diese Intelligenz im Gehirn, das man sich als eine Art Maschine vorstellte (so wie es sich heute viele Menschen als eine Art Computer vorstellen). Die technischen Daten dieser Maschine galt es zu erheben, wollte man zum Kern der Intelligenz vorstoßen, anstatt Wissen und Bildung zu messen. Dies war durchaus wörtlich zu nehmen, Lombroso hat sogar Schädel vermessen. Der Darwin-Cousin Sir Francis Galton versuchte, Intelligenz mit damals modernen naturwissenschaftlichen Mitteln zu messen. Er maß das Reaktionsvermögen, das Hörvermögen in bezug auf Lautstärke und Frequenz sowie die Sehschärfe. Auf der Londoner Weltausstellung 1888 und anschließend im Londoner Museum richtete er ein öffentliches Testlabor ein.

Der erste modernen Anforderungen genügende IQ-Test wurde von Alfred Binet 1905 entwickelt. Binet sollte im Auftrag des Französischen Erziehungsministeriums einen objektiven Test zur Früherkennung lernschwacher Kinder entwickeln, nach dem gerecht entschieden werden sollte, wer zur Sonderschule geschickt wurde. Binets Test hatte bereits fast alle Merkmale heutiger Tests. Seine Fragen wurden an einer großen Anzahl von Kindern ausprobiert. Jeder Frage wurde das "Intelligenzalter" zugeordnet, in dem genau die Hälfte aller Kinder dieses Alters die Frage noch richtig beantworten konnten. War die Korrelation zum Alter nicht eindeutig, wurde die Frage verworfen. Nun wurden alle Fragen in der Reihenfolge des lntelligenzalters angeordnet und den Kindern gestellt. Danach, bis wohin die Kinder durch die Fragen nicht überfordert wurden (diesen Punkt festzustellen gab es eindeutige Anweisungen), wurde das individuelle Intelligenzalter des Kindes festgelegt. Die 9jährige Diana mit dem Intelligenzalter 10 Jahre war also überdurchschnittlich intelligent, der 8jährige Jean mit einem Intelligenzalter von 6 Jahren und 5 Monaten war entsprechend zurückgeblieben. Binets Test wurde bald in andere Sprachen übersetzt, war in der Version "Stanford-Binet" bis in die 70er Jahre im praktischen Einsatz und ist auch heute noch erhältlich.

Die ersten Testaufgaben von Binet & Simon bezogen sich auf die Bereiche 'Urteil', 'gesunder Menschenverstand', 'praktischer Sinn', 'Initiative' und 'Fähigkeit sich anzupassen'.
Im einzelnen waren dies folgende Aufgaben:

1. "Fixierendes Sehen" (folgen die Augen des Kindes einer brennenden bewegten Kerze?).
2. Durch Berühren hervorgerufenes Greifen.
3. Durch Sehen hervorgerufenes Greifen.
4. Gegenstand erkennen (ein Holzklötzchen und ein Stück Schokolade zur Wahl) …
5. Aufgabe 4 wird erschwert durch das Einwickeln der Gegenstände vor den Augen des Kindes.
6. Befolgen einfacher Befehle (Türe schließen u.a.).

Versagt das Kind bei 1-6, dann handelt es sich um einen Grenzfall der Idiotie.

7. Wortverständnis bei Gegenständen (Kopf, Augen zeigen lassen, Tassen aus anderen Gegenständen heraus zeigen).
8. Wortverständnis bei Bildern.
9. Benennen von Gegenständen auf Bildern.
10. Vergleich von zwei verschieden langen Bildern.
11. Wiederholen von drei vorgesprochenen Zahlen.
12. Vergleichen von zwei verschieden schweren Gewichten.

Versagt das Kind bei 7-12, dann handelt es sich um Imbezillität bzw. Debilität.

13. Suggestibilität (z.B. unter vorgelegten Gegenständen einen zeigen lassen, der nicht vorhanden ist).
14. Definieren von bekannten Gegenständen (Zweckangaben).
15. Wiederholen von vorgesprochenen Sätzen mit 15 Wörtern.
16. Unterscheiden von bekannten Gegenständen aus dem Gedächtnis.
17. Erinnern vorgelegter Bilder.
18. Zeichnen aus dem Gedächtnis (eine geometrische Figur wird 1-2 Sekunden vorgelegt).
19. Wiederholen von mehr als drei vorgesprochenen Zahlen.
20. Bestimmung der Ähnlichkeit von Gegenständen aus dem Gedächtnis (z.B. zwischen Mohnblume und Blut).
21. Längenvergleich mit dem Augenmaß.
22. Ordnen von 5 gleichaussehenden, aber verschieden schweren Gewichten.
23. Bemerken einer Lücke in der Reihenfolge dieser 5 Gewichte.

Versagt das Kind bei 13-23, so handelt es sich um Intelligenzschwäche.

24. Worte finden lassen, die sich auf ein gegebenes Wort reimen.
25. Ergänzen von Lücken in einem leichten Text mit 7 Lücken.
26. Satzbildung mit drei gegebenen Wörtern (Binet gab: Paris, rivière, fortune).
27. Beantwortung von abstrakten Fragen (warum soll man besser so als so handeln).
28. Zeitangabe bei umgestellt bzw. vertauscht gedachten Uhrzeigern.
29. Ausschneidversuch (bei doppelt gefaltetem Papier wird an der Falzkante ein Dreieck abgeschnitten: wie sieht der Bogen nach der Entfaltung aus?).
30. Definieren von abstrakten Begriffen.

Der Deutsche William Stern war es, der 1912 als erster den Begriff 'Intelligenzquotient' prägte.

Er wurde 1871 in Berlin als Sohn jüdischer Eltern geboren und starb 1938 im Exil in Durham im US-Bundesstaat North Carolina, und erlangte durch seine bahnbrechenden Arbeiten zur Intelligenz- und Begabungsforschung Weltruhm. Er wurde 1916 zum Leiter des damaligen "Psychologischen Laboratoriums" am Hamburger Kolonialinstitut ernannt und war 1919 einer der Gründungsväter der Hamburger Universität. Als Ordinarius für Philosophie, Psychologie und Pädagogik machte er das Psychologische Institut in der damaligen Domstraße 8 zu einer der bedeutendsten Forschungsstätten dieses Faches, bis das NS-Regime dieser Arbeit 1933 ein jähes Ende setzte. Als Philosoph war William Stern ein Anhänger des Personalismus, der den Menschen als selbstbestimmtes Subjekt in den Mittelpunkt des Denkens rückt und streng von naturwissenschaftlich-mechanistischen Überlegungen abgrenzt. Seine Grundgedanken dazu hat er 1918 in dem Buch "Die menschliche Persönlichkeit" niedergelegt und war damit sehr einflussreich. Er hat übrigens mit seiner Frau Clara auf 4963 Tagebuchseiten die sprachliche und intellektuelle Entwicklung ihrer drei Kinder detailliert beschrieben und festgehalten. Sein wissenschaftliches Glaubensbekenntnis fasste er in seinem Hauptwerk, "Die differentielle Psychologie in ihren methodischen Grundlagen" zusammen, das 1911 in Leipzig erschien: "Fast alle Bestrebungen der wissenschaftlichen Psychologie hatten bis vor Kurzem das Gemeinsame, dass sie das Problem generell fassten. Seine Forschungen galten den letzten Elementen, aus denen sich alles psychische Leben aufbaut, den allgemeinen Gesetzen, nach denen sich die seelischen Vorgänge vollziehen. Man sah ab von der unendlichen Mannigfaltigkeit, in der sich seelisches Sein bei verschiedenen Persönlichkeiten, Völkern, Ständen, Geschlechtern, Typen usw. darstellt, um das Übereinstimmende herauszuarbeiten; man bezog seine Ergebnisse, bald mit Recht, bald mit Unrecht, auf das Leben, nicht auf diese oder jene psychische Varietätenbildung." William Stern war einer der einflussreichsten Psychologen seiner Zeit, populär und als Buchautor überaus erfolgreich. Als Erfinder des "Intelligenzquotienten", der sich aus dem Verhältnis von Intelligenzalter zum Lebensalter ergibt, hat er der Intelligenzforschung ein höchst praktikables Instrument hinterlassen. Am 19. April 1912 hatte er auf einem Kongress für experimentelle Psychologie in Berlin den IQ als Maßzahl für im Test gemessene intellektuelle Fähigkeiten vorgeschlagen. Die angewandte Psychologie profitierte darüber hinaus von seinen Arbeiten in vielfacher Weise: Er hat nicht nur die Sprachentwicklung von Kindern erforscht und die Intelligenz messbar gemacht. Er entwickelte zahllose Eignungstests und beschäftigte sich unter anderem mit dem sehr schwierigen Gebiet der forensischen Gutachtertätigkeit. Stern übernahm begann im Herbst 1917 mit dem Projekt Schülerauslese: Von 20 000 Hamburger Volksschülern der Klassenstufe 4 sollten 1000 für einen Fremdsprachenzug ausgewählt werden. Stern organisierte das Verfahren, und 1922 übernahm sein Institut regelmäßig die Auslese von Schülern für weiterführende Schulen.

Ausgangspunkt für die Einführung des IQ war das Problem, dass es recht wenig über die Intelligenz aussagt, wenn man nur weiss, um wie viele Jahre jemand vor- oder zurückliegt. Es ist sicherlich nichts Besonderes, wenn ein 12jähriger schon ein Intelligenzalter von 14 Jahren hat. Ein 6 Monate alter Säugling mit einem Intelligenzalter von 21/2 Jahren dagegen ist eine geradezu unglaubliche Sensation. Stern suchte ein altersunabhängiges Maß für die menschliche Intelligenz, teilte zu diesem Zweck Intelligenzalter durch Lebensalter und multiplizierte das Ergebnis mit 100. Unsere 9 Jahre alte Diana mit dem Intelligenzalter 10 hat somit einen IQ von 111, Jean mit seinen 8 Jahren und dem Intelligenzalter 6,4 hat einen IQ von 80. Dieser Intelligenzquotient war aber nur bei Kindern sinnvoll, weil sich erfahrungsgemäss die Intelligenzentwicklung etwa ab dem 20sten Lebensjahr stark verlangsamt und sich im Alter sogar wieder allmählich zurückentwickelt. Eine 100 Jahre alte Frau mit einem Intelligenzalter von 20 Jahren müsste zwar als geistig absolut fit bezeichnet werden, bekäme aber einen Stern-IQ von nur 20.

Die Idee lag nahe, für jeden Menschen anzugeben, wie gut er im Verhältnis zu seinen Altersgenossen bei dem jeweiligen Test abschnitt. Hierzu war es nötig, eine repräsentative Probe zu machen. Kurz nachdem Raven diese durch Angabe von ,'Perzentilwerten' für seine ,'Advanced Matrices' das erste Mal in die Tat umgesetzt hatte, stellte Wechsler das Konzept auf eine allgemeine theoretische Grundlage und gab eine Formel an, nach der die gefundenen Perzentilwerte in einen IQ überführt werden sollten, der dem bisher gewohnten ähnlich war. Auch bei dem neuen IQ sollte 100 ,'durchschnittliche' Intelligenz bedeuten, höhere Zahlen sollten höhere Intelligenz bedeuten. Wechsler ging davon aus, dass die Intelligenz in der Bevölkerung normal verteilt ist, also einer Gauß-Glockenkurve folgt. Innerhalb der ersten Standardabweichung nach oben und unten liegen jeweils 34 % aller Fälle. Wechsler definierte, dass jede Standardabweichung einer IQ-Änderung von 15 entsprechen solle. Hieraus folgt nun, dass 68 % aller Personen einer Population einen durchschnittlichen IQ zwischen 85 und 115 haben. 95 % haben einen IQ zwischen 70 und 130. Nur 0,13 % haben einen IQ von über 145. Um so hohe Intelligenzquotienten zu messen, benötigt man jedoch besondere Tests mit schwierigeren Fragen, die dann in einer entsprechenden Testgruppe validiert werden. Die meisten IQ-Tests sind nicht in der Lage, einen IQ von über 130 genau zu messen. Es werden zunächst noch Näherungswerte angegeben, ab 145 kann dann überhaupt kein Wert mehr errechnet werden.

Obgleich es nun seit etwas über einem Jahrhundert Messinstrumente zur Erfassung von Intelligenz gibt, existiert keine allgemein anerkannte Intelligenztheorie. Was Intelligenz überhaupt ist, ist vielen Wissenschaftlern auch erst einmal egal. Wichtig für sie ist die Brauchbarkeit in der Anwendung. Obgleich Intelligenztests seit es sie gibt auch angewendet werden, gibt es immer noch eine große, unbefriedigende Diskrepanz zwischen dem Entwicklungsstand von Theorie und Anwendung. Unbefriedigend vor allem deshalb, weil die zentrale Anwendung der lntelligenzforschung das Testen von Menschen ist, um diese 'objektiv' (so ist zumindest der Anpruch) für geeignet oder ungeeignet für eine Ausbildung, einen Job, eine Therapieform oder ähnliches zu erklären.

 

Gehirn als Basis intelligenter Leistungen

Wissenschaftler untersuchten 2010 eine Stichprobe von 241 ProbandInnen mit genau bekannten, lokal begrenzten Hirnschädigungen in unterschiedlichen Hirnarealen und verglichen deren allgemeine Intelligenzquotienten. Intelligenz ließ sich dabei weder einer einzelnen Region im Gehirn zuordnen, noch war das gesamte Gehirn an guten Testleistungen beteiligt, doch gibt es einen klar umgrenzten Bereich von Gehirnregionen, der offenbar für Intelligenz zuständig ist. Er umfasst die Nervenfaserverbindungen zwischen Frontal- und dem Parietallappen, sodass intelligentes Testverhalten offensichtlich von einer effizienten Kommunikation zwischen diesen Hirnregionen abhängt. Nach dieser parieto-frontalen Integrations-Theorie hängt allgemeine Intelligenz also vor allem von der Fähigkeit ab, verschiedene geistige Funktionen wie das Arbeitsgedächtnis, sprachliche und visuell-räumliche Verarbeitungsprozesse und exekutive Prozesse, die den geordneten Ablauf von Denkprozessen und Handlungen ermöglichen, im Zusammenhang zu halten.
Quelle: Jan Gläscher und Ralph Adolphs vom California Institute of Technology (Caltech) in Pasadena in der Fachzeitschrift «PNAS» (Online-Vorabveröffentlichung, doi: 10.1073/pnas.0910397107).

 

Hier finden sich exemplarisch einige klassische Modellvorstellungen der Intelligenz, die in zahlreichen Testverfahren operationalisiert wurden. Etymologisch kommt der Begriff Intelligenz vom Lateinischen "intelligentia" (von "inter legere" = auswählen durch kritische Beachtung der relevanten Merkmale, ein Ding/einen Begriff richtig einordnen). Intelligenz zu beschreiben fällt sogar Psychologen schwer, dennoch gab und gibt es immer wieder Versuche, Intelligenz zu definieren:

Intelligenzstufen nach Terman
(IQ-Skala, Mittelwert=100, Standardabweichung=15)

Benennung

IQ-Grenze

% der Verteilung

überragende Intelligenz

128+

2,2

sehr gute Intelligenz

120 - 127

6,7

gute Intelligenz

111 - 119

16,1

mittlere (normale) Intelligenz

91 - 110

50,0

Schwache Intelligenz (grenzdebil)

80 - 90

16,1

leichter Intelligenzmangel

65 - 79

6,7

Schwachsinn

- 65

2,2


Das Modell der "fluid" und "crystallized general intelligence" von Cattell

Cattell unterscheidet zwei Faktoren:

 

fluid und crystallized general intelligence von Cattell
Abb. 3: Cattells Intelligenz-Modell (nach
Amelang & Bartussek 1990, S. 205)
Die Pfeile veranschaulichen die Richtung einer Wirkung.
Durchgezogene Linien stehen für stärkeren Einfluss.

NEU: testforum NEU: testforum NEU: testforum NEU: testforum NEU: testforum

Die mulitple Faktorentheorie oder das Modell der Primärfähigkeiten von Thurstone

Da eine Reihe faktorenanalytischer Befunde nicht oder nur schwer mit der hypothetisch geforderten Existenz eines g-Faktors in Einklang gebracht werden konnten, begann Thurstone (1931) die nach der Extraktion des g-Faktors gebliebenen gemeinsamen Restvarianzen zu untersuchen. Mit Hilfe der von ihm entwickelten Technik der multiplen Faktorenanalyse (eine Weiterentwicklung von Spearmans Faktorenanalyse) entdeckte er eine Gruppe von Grundfaktoren, die von ihm als "Primary abilities" (Primärfaktoren der Intelligenz) bezeichnet wurden.

verbal comprehension (v)
Gemeint ist hiermit die Fähigkeit, Wörter und ihre Bedeutungen zu kennen und diese im Gespräch angemessen zu verwenden.
Aufgabenstellungen in Tests: verbale Analogien bilden, Rechtschreibung, richtige Reihung vertauschter Wörter, Wortverständnis.
word fluency (w)
Hierunter ist die rasche, assoziative, relativ inhaltsunabhängige Produktion von Wörtern zu verstehen, die lediglich bestimmten strukturellen oder symbolischen Erfordernissen entsprechen.
Aufgabenstellungen in Tests: Reime, Wörter, die mit einem vorgegebenen Buchstaben beginnen oder, die nur aus vier Buchstaben bestehen.
number (n)
Angesprochen wird hier die Fähigkeit, einfache Rechenoperationen möglichst schnell und präzis durchzuführen. Gemeint ist damit weniger die Rechenfähigkeit, sondern vielmehr die Rechenfertigkeit.
Aufgabenstellungen in Tests: Addition, Subtraktion, Multiplikation, Division.
memory (m)
Mit diesem Faktor wird die mechanische Merkleistung mit Hilfe des Kurzzeitgedächtnisses, das Behalten paarweise gelernter Assoziationen angesprochen.
Aufgabenstellungen in Tests: Behalten von Wort-Zahl-, Bild-Figur- oder Wort-Bild-Paaren.
perceptual speed (p)
Dieser Faktor repräsentiert die Fähigkeit, in irrelevantes Material eingebettete Details rasch zu erkennen. Visuelle Konfigurationen müssen schnell verglichen oder identifiziert werden.
Aufgabenstellungen in Tests: Anstreichen bestimmter Symbole, Erkennen von Unterschieden oder Gleichheiten.
space (s)
Diesem Faktor sind die Fähigkeiten des räumlichen Vorstellens und Orientierens sowie des Erkennens von Objekten unter verschiedenen Perspektiven zugeordnet.
Aufgabenstellungen in Tests: Verfolgen von mechanischen Bewegungen, Vergleichen von Würfeln aus unterschiedlichen Perspektiven.
reasoning (R) oder induction (i)
Dieser vielleicht komplexeste Faktor im gesamten Modell steht für schlussfolgerndes Denken, für das Erkennen und Anwenden von Regelhaftigkeiten in einer Abfolge von Zahlen oder Symbolen.
Aufgabenstellungen in Tests: Reihen fortsetzen, Muster ergänzen, Nicht-in-die-Reihe-Passendes entfernen.


Das morphologische Intelligenz-Strukturmodell von Guilford

Durch die faktorenanalytische Forschung konnten bisher etwa 100 Einzelfaktoren der Intelligenz identifiziert werden. Guilford versucht in seinem wohl umfassendsten Strukturmodell, diese Vielfalt systematisch zu ordnen. Dieses Modell lässt sich als Informationsverarbeitungsmodell verstehen, das zwischen Input,- Operations- und Outputvariablen unterscheidet. Das Modell von Guilford besticht durch seine logische Struktur, seine Systematik und Ordnung. Auf seiner Grundlage wurde inzwischen eine große Anzahl von Intelligenzfaktoren entdeckt.

Intelligenz Strukturmodell von Guilford

Abb. 5: Das "Structure of Intellect"- Modell von Guilford (nach Amelang & Bartussek 1990, S. 207)

NEU: testforum NEU: testforum NEU: testforum NEU: testforum NEU: testforum

Literatur zum Thema Intelligenz

Gould, S. J. (1981). The Mismeasure of Man. London: Penguin Books.
Horn, R. (1993). Stichwort: Intelligenz. München: Heyne.
Howard, R. W. (1991). All About Intelligence. New South Wales: University Press.
Liungman, Carl G. (1973). Der Intelligenzkult. Hamburg: Rowohlt.
Sternberg, R.J. (Hrsg.) (1982). Handbook of Human Intelligence. Cambridge University Press.

Das Konzept der "Cognitive Modifiability" von Reuven Feuerstein

Reuven Feuerstein orientierte sich bei der Entwicklung seines Konzepts der "Cognitive Modifiability" - das im strengen Sinn eigentlich kein Intelligenzmodell darstellt - an der "Genfer Schule" (Jean Piaget, Bärbel Inhelder) und an Wygotski. Beide Richtungen teilen die Auffassung, dass sich das Erkenntnisvermögen in der aktiven Auseinandersetzung des Menschen mit seiner Umwelt entwickelt und intelligente Leistungen sich nur in Form einer permanenten Entwicklung erfassen lassen.

Feuerstein untersuchte Mitte des 19. Jahrhunderts im Auftrag des israelischen Erziehungsministeriums die Integrationsmöglichkeiten von nordafrikanischen Juden, die während der zweiten großen Immigrationswelle ins Land gekommen waren. Diese litten vielfach unter emotionalen Störungen, wobei gleichzeitig ihre intellektuellen Leistungen stark eingeschränkt waren. Feuerstein war jedoch davon überzeugt, dass die niedrigen Intelligenztestwerte dieser Gruppen - zumindest teilweise - nicht durch fehlendes intellektuelles Potential, sondern vor allem auch durch die Erfahrungen, die diese Menschen durchlitten hatten, erklärt werden konnten. Feuerstein diagnostizierte schwerwiegende kognitive Defizite wie Impulsivität, Unfähigkeit zum Vergleich zwischen verschiedenen Objekten und Ereignissen, Schwierigkeiten bei der räumlichen Orientierung, Unfähigkeit zu planvollen Verhalten und die Unfähigkeit, Ursache und Wirkung miteinander zu verbinden.

Feuerstein Grundannahme lautet: Intelligenz ist keine statische Struktur, sondern ein offenes, dynamisches System, das sich während des ganzen Lebens weiterentwickeln kann. Daher richtet sich seine Auffassung gegen das eher statische Konzept der Intelligenzbegriffs und die Annahme einer weitgehend angeborenem und damit unveränderbaren Leistungsfähigkeit. Folgerichtig entwickelte er daher Programme, um die menschliche Intelligenz zu steigern. Das Arbeitsmaterial Feuersteins besteht aus Übungseinheiten, die den Aufgaben der traditionellen sprachfreien Intelligenztests entsprechen oder ähneln. Diese Tests enthalten außer einfachen Instruktionen keine verbalen Inhalte. Damit soll sichergestellt werden, dass die Ergebnisse nicht durch kultur- oder klassenbedingte sprachliche Defizite verfälscht werden.

Sein auf Förderung ausgerichtete Konzept der "Cognitive Modifiability" hat zum Ziel, eine strukturelle Veränderung der kognitiven Entwicklung zu befördern. Dies setzt voraus, dass sich die intellektuellen Fähigkeiten des Menschen, außer in Fällen schwerer genetischer und/oder organischer Defekte, in allen Lebensphasen weiterentwickeln können. Eine Veränderung der kognitiven Struktur bedeutet, dass sich die Art des Umgangs mit bestimmten Quellen der Information wandelt, etwa wenn das Kind die soeben gelernten Grundrechenarten zur Lösung selbstgestellter Aufgaben nutzt. Nach einer Veränderung der kognitiven Struktur ändert sich die Richtung der zukünftigen intellektuellen Entwicklung.

Die intellektuelle Entwicklungsfähigkeit des Menschen ist nach Auffassung Feuersteins um so größer, je schlechter die soziale Bedingungen des betroffenen Individuums in seinem bisherigen Leben waren. Nach Feuerstein gliedert sich die kognitive Struktur in die Bereiche Motivation (Lernziele, persönliche Ziele), Erfahrung, Grundfertigkeiten (Vergleichen, Kategorisieren, Raumorientierung, Planen, analytische Wahrnehmung, ganzheitliche Wahrnehmung) und Begriffe (Raumbegriffe, Verhältnisbegriffe, Prinzipien).

Im Sinne von Piagets Modell der kognitiven Entwicklung folgert Feuerstein, dass die kognitive Struktur die Wirklichkeit konstruiert, indem sie sich selbst konstruiert. Kognitive Struktur und Wirklichkeit sind durch vielschichtige Wechselwirkungen miteinander verbunden, sodass die Entwicklung der kognitiven Struktur ein lebenslanger Lernprozess in der Auseinandersetzung mit inneren und äußeren Realitäten ist. Dieser Lernprozess kann jedoch durch äußere Faktoren (schlechte soziale Bedingungen, psychische und/oder körperliche Traumatisierungen) oder interne Einflussgrößen (genetische Defekte) gehemmt, verzerrt oder gar blockiert werden. Die kognitive Struktur kann sich durch unmittelbare und vermittelte Lernerfahrung verändern. Die unmittelbare Lernerfahrung beginnt im Grunde bereits im Mutterleib. Das Kind interagiert mit seiner Umwelt, sammelt Erfahrungen, und diese Erfahrungen verändern seine kognitive Struktur und damit auch seine Art des Umgangs mit der Umwelt. Bei der vermittelten Lernerfahrung steuert ein Mediator den Prozess des Lernens. Typische Mediatoren sind Eltern, Geschwister, Lehrer. Die Absichten des Vermittlers bestimmen die Auswahl der Umweltausschnitte bzw. Reize, mit denen er das Kind konfrontiert, und somit beeinflusst er in entscheidendem Maße die Entwicklung der kognitiven Struktur des Kindes.

Nach Feuerstein ist ein Mangel an vermittelter Lernerfahrung eine wesentliche Ursache verzögerter und defizitärer geistiger Entwicklung. Je früher das Kind vermittelte Lernerfahrungen sammele, desto leichter könne es auch im direkten Umgang mit der Umwelt lernen. Ein guter Vermittler (Mediator, Lehrer) sollte dem Lernenden planvoll und mit Bedacht ausgewählte Stimuli präsentieren, die jeweilige Lernerfahrung mit anderen verwandten Erfahrungen verbinden, dem Lernen eine bezeichnende persönliche Bedeutung geben, offen sein für die wechselseitige Beziehung zwischen Lehrer und Lernendem, die Überzeugung zu erkennen geben, dass sich der Lernende verändern und verbessern wird und auf Verhaltensweisen verzichten, die Unabhängigkeit hemmen und Selbststeuerung behindern.

Der Mensch ist auf "vermitteltes Lernen" angewiesen, um zu einem aktiven Informationserzeuger zu werden. Ohne vermitteltes Lernen bleibt der Mensch ein passiver Rezipient chaotischer Informationen. In vermittelten Lernprozessen muss er Fähigkeiten entwickeln, die Feuerstein als Parameter des vermittelten Lernens bezeichnet:

Quelle:
Gresch, Hans Ulrich (1998). Möglichkeiten, Grenzen und Perspektiven des Feuerstein-Trainings (Instrumental Enrichment Program).
WWW: http://ourworld.compuserve.com/homepages/HUMGresch/wsi.htm (02-12-23)


Kreativität und Intelligenz

Der Unterschied zwischen Intelligenz und Kreativität ist nach König (1986):

Das kreative Denken kann man aber auch als ein Zusammenspiel zwischen divergentem und konvergentem Denken auffassen, denn die Wissensbasis kann als Voraussetzung für das mehr intuitive Erfassen der Lösungsidee gelten. Kreative Leistungen sind gekennzeichnet durch Sensitivität gegenüber Problemen, Flüssigkeit des Denkens, Ideenflexibilität und Originalität. In der Systematik nach Cattell (1973):

L-Daten (Lebensdaten): Kreativität wird dabei sowohl über den qualitativen Aspekt der Einzigartigkeit und Neuheit wissenschaftlicher oder künstlerischer Produktionen definiert als auch über den quantitativen Aspekt der Produktivität
L'-Daten (Fremdbeurteilungen): Fremdbeurteilungen der Kreativität können auf kreative Produkte und auf die Kreativität als Personenmerkmal ausgerichtet sein
Q-Daten (Selbstbeurteilungen): Im Vordergrund von Selbstbeurteilungsmethoden zur Erfassung der Kreativität stehen Charakteristika der Person, wobei zwischen Daten über allgemeine Persönlichkeitsvariablen, Einstellungen und Interessen sowie frühere kreative Aktivitäten und Leistungen differenziert werden kann.
T-Daten (Testdaten): Tests zum divergenten Denken entstanden aus dem Versuch, divergentes (mehrgleisiges) Denken ergänzend zum konvergenten Denken, das über die üblichen Intelligenztest erfasst wird, auch zu erheben. Der Schwerpunkt der Entwicklung solcher Tests lag auf der Konzeption von Testaufgaben, die vergleichsweise geringe Restriktionen enthalten und eine Vielzahl von Lösungsalternativen zulassen.

Bewertet werden Ergebnisse nach Richtigkeit (Einfall muss erkennbaren Bezug zur Fragestellung haben), Inhalt (Einfälle werden vorgegebenen Inhaltskategorien zugeordnet), Originalität (Beurteilung darüber, wie entlegen oder wie "clever" ein Einfall ist), Elaboration (Anzahl der Details, die der Einfall enthält).

Kreative Lösungen von Problemen zeichnen sich dadurch aus, dass gedanklich normalerweise weit entfernt liegende Elemente so verknüpft werden, dass das Ergebnis als subjektiv neu empfunden wird, daher sind kreative Problemlösungen meist auch als Umstrukturierungen von Bekanntem zu begreifen. Kreativität ist aber keine einheitliche Leistungsfähigkeit. Es gibt verschiedene Niveaus von Kreativität (z. B. situations-spezifische Produktion von witzigen Einfällen bis zu Einsteins Relativitätstheorie). Bei der Beschreibung des Prozesses kreativer Problemlösungen lassen sich verschiedene Phasen unterscheiden (Haseloff 1971, S. 89f):

In einer Untersuchung von Getzels & Jackson (1962) bei N = 499 Schülern mit einem IQ nicht unter 132 (SD=15) korrelierten die Kreativitätstests untereinander in ungefähr derselben Höhe wie mit dem IQ (r=.27 bzw. .30). Im deutschsprachigen Bereich ergaben sich Intelligenz/Kreativitäts- Korrelationen von r=.48 und r=.44 in den Untersuchungen von Grote & Hajek (1969) bzw. Krause (1972). Wallach & Kogan (1965) untersuchten den Aspekt der Vorgabebedingung "ohne Zeitbegrenzung" und kamen zu den Ergebnissen, die in folgender Übersicht dargestellt sind:

Mittlere Interkorrelationen innerhalb und zwischen Verfahren zur Erfassung von Kreativität und Intelligenz

 

Gesamt
(N = 151)

männlich
(N = 70)

weiblich
(N = 81)

zwischen Kreativitätstests
(n = 45)

.41

.34

.50

zwischen Kreativitäts- und Intelligenztests
(n = 100)

.09

.05

.13

Ein Replikationsversuch von Nijsse (1975) war negativ; die Zeitbegrenzung wirkte sich hier lediglich auf die (dann niedrigeren) Mittelwerte und Varianzen aus. Guilford (1967) kommt aus seinen Untersuchungen zu folgendem Fazit: Hohe Intelligenz ist zwar nicht gleichbedeutend mit Kreativität, hohe Kreativität setzt aber eine überdurchschnittliche Intelligenz unabdingbar voraus. In den Untersuchungen von Yasomoto (1965) zeigte sich ein ähnliches Ergebnis, allerdings nahm mit wachsendem IQ die Korrelation mit Kreativität ab.

Jäger (1967) verglich 63 Kreativitätstests. Er kam dadurch zu vier hochgradig generelle, durch ihre operative Eigenart gekennzeichnete Leistungsklassen:

Neben den Operationsklassen B, G, und K von denen insbesondere K in der Tradition der psychometrischen Intelligenzforschung als Prototyp eines Intelligenzfaktors gilt, findet sich ein ebenso genereller Kreativitätsfaktor (E). Damit stellt sich Kreativität als eine Grunddimension intellektuellen Verhaltens dar. 1981 zeigten Jäger & Hörmann, dass sich "derselbe Satz von Leistungsvariablen sowohl durch vier Grunddimensionen der Intelligenz (G, E, B, K) als auch durch "g" (die Allgemeine Intelligenz) beschreiben lässt."

Eine ähnliche Untersuchung führte König 1981 durch und fand ebenfalls die Variablen Gedächtnis, Verarbeitungskapazität und Bearbeitungsgeschwindigkeit sowie eine generelle, reliable und reproduzierbare Dimension "Einfallsreichtum", die sich in einer weiteren Analyse in speziellere Untergruppen gliederte. Wurden die kreativen und intelligenten Leistungen hingegen im Kontext von Motivations-, Temperaments., Interessen- und Selbsteinschätzungsmerkmalen analysiert, bildeten Kreativität und Intelligenz eine als "allgemeine intellektuelle Leistungsfähigkeit" beschreibbare Einheit. Königs Ergebnisse zeigten, dass es eine Frage des Generalitätsniveaus ist, ob sich divergente und konvergente Leistungen entweder zu unterscheidbaren Leistungsklassen gruppieren oder ob divergent und konvergente Leistungen im System der Gesamtpersönlichkeit ein komplexes Konstrukt allgemeiner intellektueller Leistungsfähigkeit bilden.

Die Korrelation zwischen Kreativität und Schulleistung liegt bei 0.33, wobei LehrerInnen lieber hochintelligente als hochkreative SchülerInnen unterrichteten, da letztere eher unruhiges Verhalten zeigen, häufiger solche Fragen stellen, die LehrerInnen behindern, im Stoff fortzufahren, oder bei denen sich Probleme haben, diese zu beantworten. Hochintelligente unterscheiden sich von Hochkreativen hinsichtlich ihrer Persönlichkeit darin, dass sie viel Wert auf Erfolg legen, während Kreative eher Humor schätzen und es ihnen wichtig ist, mit anderen Menschen gut auszukommen.

Literatur zur Kreativität

Bollinger, G. (1981). Kreativitätsmessung durch Tests zum divergenten Denken? Zeitschrift für Differentielle und Diagnostische Psychologie, 2, S. 87-106.
Heller, K. A. (1987). Hochbegabungsdiagnostik. Zeitschrift für Differentielle und Diagnostische Psychologie, 8, S. 155-240.
König, F. (1986). Kreativitätsdiagnostik als essentieller Bestandteil der Intelligenzdiagnostik. Diagnostica, 32, S. 345-357.
Krampen, G. (1993). Diagnostik der Kreativität. In Trost, G., Ingenkamp, K. & Jäger, R. S. Tests und Trends 10. Weinheim, Basel: Beltz.
 

NEU: testforum NEU: testforum NEU: testforum NEU: testforum NEU: testforum

Trendumkehr beim Flynn-Effekt

Jahrzehntenlang stieg die Durchschnittsintelligenz der Menschen kontinuierlich an, sodass bei Testrevisionen die Standardwerte kontinuierlich an die neuen Verteilungen angepasst werden mussten. Der neuseeländische Politikwissenschaftler James Flynn hatte 1987 diesen ständigen Anstieg der durchschnittlichen IQ-Werte in den westlichen Gesellschaften seit dem Zweiten Weltkrieg entdeckt. Seitdem sprechen Psychologen vom Flynn-Effekt. Besonders in Ländern, in denen seit langem alle jungen Männer bei der Musterung einen Intelligenztest ausfüllen müssen, zeigte sich dieser Effekt. Der durch-schnittliche IQ-Wert in einem Land steigt ungefähr alle 30 Jahre - also in ieder Generation um 20 Punkte. Diesem Flynn-Effekt wird dadurch Rechnung getragen, dass bei der Normierung von IQ-Tests die Verteilungen nachjustiert werden, sodass der Durchschnitt nach wie vor bei 100 liegt und nur jeweils zwei Prozent über 130 und unter 70 IQ-Punkte kommen. Die Verbesserungen in den IQ-Werten sind aber nicht gleichmäßig auf alle Aufgabengruppen verteilt: Am stärksten sind die IQ-Zuwächse bei Aufgaben, die abstrakte und visuell-räumliche Fähigkeiten testen. Die sprachlichen und arithmetischen Fähigkeiten verbessern sich deutlich langsamer. Flynn selbst führt das auf Fernsehen, Computerspiel und -arbeit zurück, denn genau diese Tätigkeiten - die in immer früheren Jahren aufgenommen werden - trainieren räumliche Vorstellung und Abstraktionsvermögen. Bessere Ernährung und Bildung tragen das ihre dazu bei. Der australische Psychologe Robert Howard führt das auf die zunehmende Beschäftigung von Kindern und Jugendlichen im visuellen Bereick zurück. Dazu kommt das Autofahren, das ebenfalls die visuellen Fähigkeiten beansprucht. Gesellschaft und Umwelt werden darüber hinaus immer komplexer, sodass auch von dieser Seite her ein Trainingsefekt zu vermuten ist.

Für diese säkulare Testnormverschiebung in Intelligenztests sind unterschiedlichste Erklärungsansätze vorgelegt worden. Der Brand-Hypothese (Brand, 1987) zufolge ist ein säkularer Wandel zu "permissiverem" Testbearbeitungsverhalten ein Kausalfaktor für diesen Aufwärtstrend, der Rodgers-Hypothese (Rodgers, 1998) zufolge ist direktionale Varianzrestriktion ("von unten her") in IQ-Verteilungen dafür verantwortlich. Diese Hypothesen wurden an im Zeitraum 1978-94 inzidentell erhobenen Testdaten (5445 Patienten der Wiener Univ.-Klinik für Psychiatrie) für das kristallisierte Intelligenzmaß MWT-B (Lehrl, 1977) geprüft. Basierend auf verschiedenen Schätzmodellen resultierte für diese Daten 1.7-2.4 IQ-Punkte für Jensen's Delta-IQ (IQ-Zuwachs pro Dekade). Für die Brand-Hypothese spricht die über den Erhebungszeitraum deutlich gestiegene Prävalenz im Rateverhalten (Verringerung der mittleren und medianen Zahl nicht-bearbeiteter Testitems, insbesondere die schwierigsten Items betreffend; Anstieg des Anteils an Testprotokollen ohne Itemauslassungen). Für die Rodgers-Hypothese sprechen charakteristische Gestaltänderungen der IQ-Verteilung über den Erhebungszeitraum (Verkleinerung der Testscorevarianz; Anhebung der unter dem Verteilungsmedian gelegenen Prozentrangbänder; wachsende Linkssteilheit und Schmalgipfligkeit der IQ-Verteilung ohne Indizien für einen Deckeneffekt; der Aufwärtstrend erfasst Personen mit niedriger Schulbildung überproportional) (vgl. Voracek, Universität Wien).

Aus Dänemark und der Schweiz kommen nun erste Zweifel an der Fortsetzung der Intelligenz-Zunahme. Thomas Teasdale, Psychologe an der Universität Kopenhagen, stellte fest, dass mit Beginn der neunziger Jahre die Steigerung der IQ-Werte aufhörte. In Dänemark machen nämlich seit 1957 alle 17jährigen Männer im Rahmen der Stellung beim Militär exakt dieselben IQ-Tests, und dort sinken die Werte seit 1990 leicht. Seit 1999 wurde sogar ein Rückgang beobachtet. Auch der Züricher Psychologe Urs Schallberger fand bei der Überprüfung eines Intelligenztests an 1.800 Kindern aus Deutschland, Österreich und der Schweiz keinen Flynn-Effekt mehr, sondern ebenfalls Indizien für eine Trendumkehr. Über die Ursachen wird derzeit nur spekuliert, zumal nach wie vor unklar ist, was zuvor den stetigen Anstieg der Intelligenz bewirkt hatte. Teasdale, glaubt, dass die Reform der Schulsysteme in den fünfziger und sechziger Jahren die Bevölkerung intelligenter machte. Teasdales neue Entdeckungen scheinen die Schultheorie zu bestätigen: "Seit den siebziger Jahren hat sich in dänischen Schulen nicht mehr viel getan. Ohne weitere Verbesserungen in den Schulen bleibt die Intelligenz auf einem Niveau stehen." Dazu passen Ergebnisse aus Ländern wie Singapur und Südkorea. Dort werden noch immer Verbesserungen und Reformen in den Schulen durchgeführt, gleichzeitig steigen weiterhin die durchschnittlichen IQ- Werte. Mit der Schultheorie ist aber nicht der Rückgang der Intelligenz erklärt. Teasdale glaubt, dass die sinkenden IQ-Werte mit einem immer schwächeren Interesse an akademischer Ausbildung zusammenhängen. 1999, als die Intelligenzwerte zum ersten Mal sanken, ging erstmals auch die Zahl der dänischen Jugendlichen zurück, die ein Gymnasium besuchten. Teasdale: "Je mehr junge Männer bei ihrer Musterung nicht mehr an Prüfungen gewöhnt sind, desto schlechter kommen sie mit dem Test zurecht."

Metaanalysen einer Vielzahl von Primärstudien deuten auf eine globale Verlangsamung und möglicherweise bevorstehende Stagnation des Flynn Effekts hin bzw. man postuliert schon einen Anti-Flynn Effekt. Tatsächlich mehren sich in Studien die Evidenz für eine Umkehr des Flynn Effekts zumindest im europäischen Raum, wobei Ergebnisse aus einer Vielzahl von Ländern, die ursprünglich durch Zunahmen charakterisiert waren (Dänemark, Deutschland, Estland, Finnland, Frankreich, Niederlande, Norwegen, Österreich, UK), nun Abnahmen in der durchschnittlichen Bevölkerungstestleistung zeigen. Als mögliche Ursachen für diesen Anti-Flynn Effekt wurden mitunter systematische Migrationseffekte oder Fertilitätseffekte vermutet. Pietschnig et al. (2018) haben diese Theorien nun erstmals in zwei unabhängigen Studien empirisch überprüft, wobei in einer ersten meta-analytischen Studie man die Einflüsse auf Stagnation und Umkehr des Flynn Effekts in Österreich anhand von den Ergebnissen mehrerer tausend Testpersonen auf Raumvorstellungstests untersuchte. Es zeigte sich, dass die Testergebnisse weder in linearer, noch in kurvilinearer Beziehung zu Netto-Migration, absoluter Migration oder AsylwerberInnenzahl stehen. Weiters ließen sich keine Einflüsse von Fertilitätsraten der letzten vierzig Jahre auf die Bevölkerungstestleistung nachweisen. In einer Nachfolgestudie haben die Wissenschafter IQ-Testleistungsveränderungen in 21 Ländern an mehreren hunderttausend Testpersonen über einen Zeitraum von über 50 Jahren untersucht, in der sich die Befunde zu Fertilität bestätigen ließen.
Insgesamt zeigen sich die beobachteten Ergebnisse konsistent mit Befunden, die darauf hindeuten, dass migrationsbedingte Änderungen nationaler Bevölkerungstestleistungen bestenfalls kurzlebig sind, denn ergänzende Untersuchungen haben gezeigt, dass auch in den weiteren hier untersuchten Ländern Migrationszahlen keinen Einfluss auf Testleistungsänderungen hatten. Die Ursachen des Anti-Flynn Effekts dürften auf den differenzierten Zusammenhängen mit spezifischen und allgemeinen kognitiven Fähigkeiten beruhen, d. h., dass steigende Fähigkeitsspezialisierung zu Anstiegen der Bevölkerungsintelligenz geführt haben, während allgemeine kognitive Fähigkeiten in den vergangenen Jahrzehnten weitgehend unverändert blieben. Wenn also die Leistung in spezifischen Fähigkeiten in der Bevölkerung ein Maximum erreicht, sollten sich in Folge Abnahmen der Bevölkerungstestleistung zeigen. Die Veränderungen in den Testleistungen sind vermutlich ein Ausdruck der geänderten Anforderungen der Umwelt an die kognitiven Fähigkeiten darstellen.

Wongupparaj et al. (2017) haben jüngst in einer Metastudie gezeigt, dass Menschen seit 1972 vor allem zunehmend schlechter bei Aufgaben werden, die das Arbeitsgedächtnis fordern, abschneiden, während gleichzeitig die Leistungen des Kurzzeitgedächtnisses besser geworden sind. Die Frage allerdings, ob sich der Flynn-Effekt seit den 90er Jahren umkehrt, ist damit aber nicht zu beantworten, denn in den untersuchten Studien ist der Anteil von Über-60-Jährigen, die an den IQ-Tests teilgenommen hatten, über die Zeit höher geworden. Das Arbeitsgedächtnis gehört aber zu jenen kognitiven Funktionen, die im Alter im Durchschnitt nachlassen, sodass ein Stichprobenbias die Ergebnisse mit beeinflusst haben könnte.

 

Quellen & Literatur

Lynn, R.  & T. Vanhanen (2002). IQ and the Wealth of Nations. Westport, CT: Praeger.
http://www.gesundheitspilot-news.de/ (02-05-11)

Pietschnig, J., Voracek, M., & Gittler, G. (2018). Is the Flynn effect related to migration? Meta-analytic evidence for correlates of stagnation and reversal of generational IQ test score changes. Politische Psychologie, 6, 267-283.

Wongupparaj, P., Wongupparaj, R., Kumari, V. & Morris, R. G. (2017). The Flynn effect for verbal and visuospatial short-term and working memory: A cross-temporal meta-analysis. Intelligence, 64, 71-80.

Hochbegabung

Im Zusammenhang mit Intelligenz wird auch häufig das Phänomen der Hochbegabung diskutiert. Generell sagt eine besonders ausgeprägte, nicht primär kognitive Begabung nichts über den IQ einer Person aus, ebensowenig wie eine kognitiv hochbegabte Person durch besondere Leistungen außerhalb des kognitiven Bereiches auffallen muss. Einen hohen IQ zu haben bedeutet nicht, generell alles besser zu können als andere. Selbst innerhalb einer Kategorie können Begabungen sehr unterschiedlich sein. Für die meisten ist offensichtlich, dass jemand, der hervorragend Klavier spielen kann, nicht unbedingt auch gut Geige spielen kann. Ebenso sagt aber die Tatsache, dass jemand ein ausgezeichnetes räumliches Vorstellungsvermögen besitzt, nichts darüber aus, wie gut er rechnen kann. Beides aber wird als kognitive Hochbegabung bezeichnet. Ausgeprägte einseitige Begabungen, durch die sich z.B. Gedächtniskünstler oder Kopfrechengenies auszeichnen, stellen natürlich auch eine Hochbegabung dar, bilden aber die Ausnahme. Vielmehr zeichnen sich die meisten kognitiv Hochbegabten durch sehr breit gefächerte, aber eben noch überdurchschnittliche bis weit überdurchschnittliche Fähigkeiten aus.

Hochbegabung ist auch nur die Disposition für herausragende Leistungen, nicht die Hochleistung selber - hier gilt Ähnliches wie für die Unterscheidung zwischen Intelligenz und Leistung. Im Hinblick auf die Definition der Hochbegabung durch den Intelligenzquotienten ist jedoch zu beachten, dass die Grenzen zwischen guter, überdurchschnittlicher Begabung, Hoch- und Höchstbegabung willkürlich festgesetzt wurden (IQ von 130 als Grenzwert). Aufgrund von Längsschnittstudien wurde die Einfaktorentheorie (Hochbegabung=Intelligenz) weitgehend aufgegeben, vielmehr geht man von einem Mehr-Faktoren-Modell der Hochbegabung aus. Hochbegabung setzt sich zusammen aus sehr guter Motivation, sehr guter Kreativität und aus überdurchschnittlichen Fähigkeiten auf einem oder mehreren Gebieten., die nur unter bestimmten Umständen zu Höchstleistungen führen. So ist es eine Aufgabe der Umwelt (Familie, Kindergarten, Schule, weiteres Umfeld) Bedingungen zu schaffen, in denen besonders begabte Kinder und Jugendliche sich ihrer Begabung gemäß entwickeln können. Die Feststellung der Hochbegabung und die Begabtenförderung können heutzutage nicht isoliert betrachtet werden, da sich Hochbegabung nur dann entwickeln kann, wenn das potentiell hochbegabte Kind eine unterstützende Umwelt hat und es selber weitere fördernde, nicht kognitive Persönlichkeitsmerkmale  (z.B. Leistungsmotivation, Anstrengungsbereitschaft, Stressbewältigungskompetenz) besitzt undauch entfalten kann. Auch gibt es nicht die Hochbegabung und das hochbegabte Kind an sich, sondern jeder Begabte ist einzigartig, somit existiert auch kein Königsweg zur Förderung von begabten Kindern, sondern es gilt, den für jeden einzelnen adäquaten Förderweg zu finden, also unter Berücksichtigung der Persönlichkeitsentwicklung, so wie auch bei schwächer begabten Kindern in der Pädagogik ein Weg der Differenzierung und Individualisierung eingeschlagen wird.

Der Begriff der Hochbegabung ist daher nicht alleine auf Intelligenz zu beziehen, sondern kann in den verschiedensten Bereichen auftreten. Nach Heller (2000) gibt es folgende Begabungsfaktoren:

Das häufig genannte Hauptproblem hochbegabter SchülerInnen ist ihr mangelndes Interesse am Unterricht, weil sie ihm oft mühelos folgen und Klassenziele bereits vorwegnehmen können. Diese Frustration kann so weit gehen, dass die LehrerInnen ihrerseits den Eindruck gewinnen müssen, der/die Schüler/in habe in Wirklichkeit gar nichts vom Unterricht verstanden. Diese - in einigen Fällen ja durchaus richtige - Theorie ist mittlerweile so zum Allgemeinwissen geworden, dass viele Eltern, wenn ihre Kinder schlecht in der Schule sind, gleich meinen, es sei hochbegabt. Nicht alle Hochbegabte sind schlecht in der Schule, und nicht alle, die schlecht in der Schule sind, sind Hochbegabte! Ob sich ein hochbegabtes Kind für den Unterricht interessiert, hängt vor allem auch davon ab, ob es sich seine dort vielleicht fehlende geistige Anregung außerschulisch holt. Wenn es den Unterricht als notwendiges und oft auch interessantes Basiswissen begreift, auf dem es in seinen Freizeitaktivitäten aufbauen kann, dürfte es durchaus sehr gute Schulleistungen erbringen. Es sei noch erwähnt, dass Jungen allgemein mehr als Mädchen dazu neigen, bei Frustration Verhaltensauffälligkeiten zu zeigen. Dies führt auch dazu, dass sehr viel mehr hochbegabte Jungen als Mädchen "entdeckt" werden: Ein Junge, den der Unterricht langweilt, beginnt, ihn zu stören. Ein gelangweiltes Mädchen hingegen beugt sich eher dem Gruppendruck, passt ihre Leistungen denen ihrer Freundinnen an und bleibt unauffällig. Wie alle Geschlechtsunterschiede, die mit gesellschaftlichen Normen verbunden sind, sind natürlich auch diese Mechanismen im Wandel begriffen. Je nachdem, wie ein Kind mit seiner Hochbegabung umzugehen lernt, wird es mehr oder minder große Schwierigkeiten im zwischenmenschlichen Bereich haben. Als gleichermaßen negativ wären Entwicklungen zu werten, bei denen sich das Kind aufgrund dauernder Frustration bzw. dem Gefühl, anders zu sein, mehr und mehr isoliert, oder sich andererseits zu viel auf seine vermeintliche geistige Überlegenheit einbildet. In der Summe gibt es keine eindeutigen Zusammenhänge zwischen einer Hochbegabung und anderen Persönlichkeitszügen oder der sozialen Kompetenz. Dies trifft auch auf die vermeintliche "frühe Reife" und auffällige Ernsthaftigkeit hochbegabter Kinder zu; sie sind und bleiben letztlich Kinder. Als einziger Trend lässt sich feststellen, dass sich viele Hochbegabte unter Älteren oder anderen Hochbegabten wohler fühlen, weil sie sich mit ihnen geistig "auf einer Wellenlänge" liegend empfinden.

Erkennen von Hochbegabung in der Schule

Die Identifikation einer Hochbegabung ist ein sehr komplexer und dynamischer Prozess, bei dem neben Begabungsmerkmalen, Begabungsrichtungen auch nichtkognitive Persönlichkeitsmerkmale und Umweltfaktoren (Kindergarten, Familie, Schule) mit einzubeziehen sind. Neben der testpsychologischen Differenzialdiagnostik sind folgende Beobachtungskriterien als erste Hinweise für Hochbegabung relevant (von verschiedenen Autoren benannt):

Bei der Einschätzung von Begabung/Hochbegabung sind grundsätzlich zwei Fehler denkbar:

Die Einschätzung der Hochbegabung kann nur von qualifizierten Psychologen, Schulpsychologen bzw. Mitarbeitern von speziellen Beratungsstellen durchgeführt werden. Aufgrund von speziellen Ausbildungen können auch Pädagogen eine Sensibilität für Hochbegabungen im Schulalltag entwickeln, allerding ist dies nicht so einfach, da die normalen Kriterien für Lehrer wie gute Leistungsmotivation und gute Schulleistungen oft nicht ausreichend sind, eine Hochbegabung zu entdecken. Auch hochbegabte Kinder und Jugendliche sind Menschen mit Stärken und Schwächen, die geprägt sind vom familiären und außerfamiliären Umfeld. Auch hochbegabte Kinder und Jugendliche können schlechte Schulleistungen erbringen. Dies kann einerseits an vorliegenden Störungen liegen wie z.B. spezielle Lern- und Leistungsstörungen (wie z. B. eine Lese-Rechtschreibschwäche oder eine Dyskalkulie), andererseits an besonderen Teilleistungsstörungen (wie z.B. Auffälligkeiten im motorischen, visuellen und auditiven Bereich). Auch können fehlende Hoch - oder Höchstleistungen bei Hochbegabung an fehlender Identifizierung, an fehlender Akzeptanz, an inadäquater Förderung der begabten SchülerInnen oder an allgemeiner Unterforderung liegen. Die Folgen einer allgemeinen Unterforderung können sein:


Literatur zur Hochbegabung

Heller, K. A. (2000). Lehrbuch der Begabungsdiagnostik.
Heller, K. A. (1987). Hochbegabungsdiagnostik (Themenheft). Zeitschrift für Differentielle und Diagnostische Psychologie, 8, S. 155-240.
Webb, J. T., Meckstroth, E. A. & Tolan, S. S. (1985). Hochbegabte Kinder, ihre Eltern, ihre Lehrer. Bern: Huber.
Rost, D. H. (2000). Hochbegabte und hochleistende Jugendliche. Münster: Waxmann.
Rudloff, Sven (1998). IQ - oder: Was Sie schon immer über Intelligenz wissen sollten, aber nie zu fragen auf die Idee gekommen sind, weil Sie ja schon alles darüber wissen.
WWW: *** (98-02-23)
Ohne Autor (o.J.). Diagnostik von Hochbegabung.
WWW: http://www.logios.de/hochbegabung/texte_diagnostik.htm (03-06-12)

Siehe dazu auch die Testpraxis

 

Intelligenz und PISA-Studie

Zurück zum Überblick
Der psychologische Test
Das psychologische Experiment

Die PISA-Studie "beansprucht, Basiskompetenzen zu erfassen, die in modernen Gesellschaften für eine befriedigende Lebensführung in persönlicher und wirtschaftlicher Hinsicht sowie für eine aktive Teilnahme am gesellschaftlichen Leben notwendig sind" (Baumert et al. S. 29), eine wohl treffende Definition eines "Generalfaktors der Intelligenz" (Herrnstein und Murray 1994, Rost 2000). Unter den "Basiskompetenzen" versteht man in der Studie "Lesekompetenz, Mathematische Grundbildung und Naturwissenschaftliche Grundbildung". Unter Lesekompetenz wird nicht nur die Lesegeschwindigkeit gemessen, die ebenfalls sehr hoch mit dem IQ korreliert und deshalb ein Bestandteil mancher Intelligenztests ist (z. B. des KAI - Kurztest für Allgemeine Intelligenz; Lehrl et al. 1991), sondern "Lesekompetenz wird in PISA als aktive Auseinandersetzung mit Texten aufgefasst. (...) Neben den basalen Lesefähigkeiten gehören auf Seiten des Lesers hierzu vor allem auch kognitive Grundfähigkeiten, Sprach-, Welt- und inhaltliches Vorwissen, strategische Kompetenz." Diese "kognitiven Grundfähigkeiten" lassen sich als wesenztliche Merkmale einer "Allgemeinen Intelligenz" begreifen. Diese Auffassung wird dadurch bestätigt, dass bei PISA die Lesekompetenz mit der Mathematikkompetenz mit .84 korreliert, mit der Naturwissenschaftskompetenz mit .83 und Mathematik und Naturwissenschaften untereinander mit .87 korrelieren. Die in der Pisa-Studie eingesetzten Aufgaben können daher als eine Testbatterie von hoher Messgenauigkeit gelten, wobei die Fragestellung und Konzept wohl nicht grundsätzlich verschieden von dem sind, als Binet vor 100 Jahren die ersten Intelligenztests entwickelte.

Auch Rindermann (2006) weist darauf hin, dass die Kompetenzwerte in den verschiedenen Aufgabenfeldern extrem stark miteinander korreliert sind – weitaus stärker als die Ergebnisse verschiedener Intelligenztests. PISA misst demnach in erster Linie nicht bestimmte fachliche Kompetenzen, sondern einen Generalfaktor kognitiver Fähigkeiten.

Quellen:
Baumert, J., Klieme, E., Neubrand, M., Prenzel, M., Schiefele, U., Schneider, W., Stanat, P., Tillmann, K.-J. & Weiß, M. (Hrsg.) (2001). PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske und Budrich.
Herrnstein, R. J. & Murray, C. (1994). The Bell Curve. Intelligence and Class Structure in American Life. New York: Free Press.
Lehrl, S., Gallwitz, A., Blaha, L. & Fischer, B. (1991). Theorie und Messung der biologischen Intelligenz mit dem Kurztest KAI. Die allgemeinen Basisgrößen der Informationsverarbeitung. Elsterberg: Vless.
Rindermann, H. (2006). Was messen internationale Schulleistungsstudien? Schulleistungen, Schülerfähigkeiten, kognitive Fähigkeiten, Wissen oder allgemeine Intelligenz? Psych. Rundschau, 57, 69-86.
Rost, D. H. (2000). Hochbegabte und hochleistende Jugendliche. Münster: Waxmann.
Weiss, Volkmar (2002). Ein kritischer Beitrag zur politischen Wertung der PISA-Studie.
WWW: http://www.v-weiss.de/pisa3.html (03-06-19)


Intelligenz und Lügen

Neue Befunde der Gehirnforschung lassen die Hypothese zu, dass Lügen eine beachtliche intellektuelle Leistung darstellt und wesentlich zur Evolution der menschliechen Intelligenz beigetragen hat. Daniel Langlebens (Pennsylvania School of Medicine, Philadelphia) hat in Experimenten mittels der funktionellen Magnetresonanztomographie gezeigt, dass sich die Aktivität in bestimmten Hirnbereichen immer dann signifikant erhöhte, wenn die Versuchspersonen logen. Besonders auffällig war der Aktivitätsanstieg im vorderen Gyrus cinguli (Aufmerksamkeitssteuerung und Impulskontrolle) und in der präfrontalen Großhirnrinde (hemmende Instanz des Gehirns). Langlebens postuliert daher, dass zum Aussprechen einer Lüge eine aktivere Gehirnleistung zur Unterdrückung der Wahrheit notwendig ist als zur Wahrheit, die sozusagen der kognitive Normalzustand ist.
Quelle: http://www.welt.de/data/2003/02/19/43223.html?prx=1 (03-03-05)


Schimpanse IntelligenzSiehe auch Intelligenz bei Tieren


Fernsehkonsum und Sprachkompetenz

In einer Längsschnittstudie wurde versucht, unter Berücksichtigung von Intelligenzunterschieden mögliche Effekte des Fernsehens auf die Entwicklung von Sprach- und Lesekompetenzen von 332 Grundschulkindern aufzudecken. Die Kinder der beiden etwa gleich großen Alterskohorten waren zu Beginn der Studie durchschnittlich etwa sechs bzw. acht Jahre alt. Im Rahmen dieser Untersuchung wurden Kinder mit hohem Fernsehkonsum (Vielseher) und Kinder mit weniger stark ausgeprägtem Fernsehkonsum (Normal- und Wenigseher) in Bezug auf die Entwicklung ihrer (schrift)sprachlichen Leistungen verglichen, wobei die Intelligenz als zusätzlicher Faktor berücksichtigt wurde.

Obwohl die allgemeine Intelligenz der Kinder durchgängig die stärksten Effekte zeigte, erwies sich auch der Fernsehkonsum als relevanter Einflussfaktor. Dabei ergaben sich in der jüngeren Altersgruppe Interaktionen zwischen den Faktoren in dem Sinne, dass die Vielseher gerade in der Gruppe der weniger intelligenten Kinder besonders schwache sprachliche Leistungen im Vergleich zu Wenigsehern zeigten.

Quelle:
Schiffer, Kathrin, Ennemoser, Marco & Schneider, Wolfgang (2002). Die Beziehung zwischen dem Fernsehkonsum und der Entwicklung von Sprach- und Lesekompetenzen im Grundschulalter in Abhängigkeit von der Intelligenz. Zeitschrift für Medienpsychologie, 14, S. 12-13.


Intelligenz und Sprache

Die menschliche Intelligenz ist nach David Premack neben der Evolution vermutlich der einzige flexible Prozess auf der Erde, der fähig ist, beinahe unbegrenzt Lösungen für Probleme zu produzieren, mit denen Lebewesen konfrontiert sind. Die Intelligenz ist dabei in der Anpassung deutlich schneller, denn während unbeirrt Verhaltensprogramme ausführen, die sich offenbar in der Evolution bewährt haben, können Menschen lernen, ihre Programme flexibel anzupassen. Voraussetzung dafür ist eine "Theory of Mind": Ich denke, dass du denkst, dass ich denke usw. usf. Das ist eine rekursive Struktur, wie sie auch für die Grammatik der menschlichen Sprachen typisch ist. Durch Rekursivität lassen sich aus endlich vielen Regeln und Wörtern unendliche viele Sätze aufbauen. Das ist nach Noam Chomsky die beim Menschen einzigartige Komponente der Sprachfähigkeit, denn ist die Zahl der Sätze unendlich, dann ist auch die Zahl der möglichen Gedanken und Absichten unendlich. Die Rekursion ist die Fähigkeit, einen Gedanken in einen anderen einzubetten. Die Psychologen W. Tecumseh Fitch und Marc D. Hauser ließen Tamarin- Äffchen Abfolgen von Silben zweier Sorten (A und B) erlernen. Die Äffchen erlernten dabei eine nicht rekursive Grammatik, bei der nur Wörter, die gleich nacheinander kommen, miteinander zusammenhängen. Die Äffchen gewöhnten sich also daran, dass auf eine A-Silbe immer eine B-Silbe folgt und zeigten sich irritiert, wenn das nicht der Fall war. Eine simple rekursive Grammatik , dass auf eine Anzahl von A-Silben folgt immer dieselbe Anzahl von 2 oder 3 B-Silben folgt, erlernten sie hingegen nicht. Sie verstehen vermutlich keine hierarchisch organisierte akustische Struktur, also das, was das Wesen der menschlichen Sprachen ausmacht (Science 2003, 303, S. 377).


Chaotic homes hamper child development

Growing up in a chaotic home could be bad for a child's developing mind. An association between disorganised, noisy and cramped homes and lower childhood intelligence has been observed before. But whether socio-economic status (SES), genetics or the environment itself is the cause has never been clear. So Stephen Petrill at Pennsylvania State University and his colleagues turned to a database of twins born in the UK between 1994 and 1996. By noting differences between genetically identical twins, and fraternal twins, who share only half their genes, the researchers hoped to tease apart the influence of genes and environment. The team collected information about nearly 8000 3- and 4-year-old twins, on SES, household chaos and cognitive ability, which they measured with quizzes and vocabulary and grammar tests. The results showed that the homes of wealthier and better-educated parents were slightly more organised. But after controlling for the large genetic contribution to intelligence, the team found that chaos had an influence on cognitive skills independently of SES. "It just makes sense," says Robert Plomin, a co-author of the paper. "If a kid is in a really chaotic home, it's hard to imagine that they can learn in a normal way. Their surroundings just aren't subtle enough for them to tease apart the world." The findings also suggest that when the environment is more stressful, intelligence is more likely to be constrained by genes, he says. (The World's No.1 Science & Technology News Service 04-06-10)

 


Die Darstellungen einiger der klassischen Intelligenzmodelle entstammt dem empfehlenswerten Hypertext Erwin Breitenbachs: Theorien der Intelligenz (o.J.). WWW: http://www.uni-wuerzburg.de/sopaed1/breitenbach/intelligenz/intelliglie.htm (01-12-03). Dort finden sich ausführliche Beschreibungen und Erläuterungen zu diesen hier exemplarisch dargestellten und weiteren Modellen der Intelligenz. Der einleitende geschichtliche Überblick stammt aus: Eysenck, Hans J. (1996). Intelligenztest. Reinbeck bei Hamburg: Rohwohlt

[previous] [index] [close] []

[kontakt]


https://testexperiment.stangl-taller.at/

@}----->---->---- [8-}) design]