70
eobase49 Zentrum für Testentwicklung und Diagnostik Hogrefe TestSystem Einführung in die computerbasierte Psychodiagnostik (Handbuch Band 2) Klaus-D. Hänsgen unter Mitarbeit von R. Zumbrunn, J. Frossard, A.Crottet, J. Fäh, S. Simonet, B. Spicher, M. Strazzeri, K. Stress Hogrefe Verlag für Psychologie

Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Embed Size (px)

Citation preview

Page 1: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

eobase49

Zentrum für Testentwicklung und Diagnostik

Hogrefe TestSystem

Einführung in die computerbasiertePsychodiagnostik (Handbuch Band 2)

Klaus-D. Hänsgen

unter Mitarbeit von R. Zumbrunn, J. Frossard, A.Crottet, J. Fäh, S. Simonet, B. Spicher, M. Strazzeri, K. Stress

HogrefeVerlag für

Psychologie
Page 2: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

2

Das Hogrefe TestSystem wird herausgegeben von K.-D. Hänsgen, Zentrum für Testentwicklung und Diagnostik am Departement für Psychologie der Universität Freiburg/Schweiz. Die Entwicklung erfolgt im Rahmen eines Drittmittelprojektes im Auftrage des Hogrefe Verlages für Psychologie, Göttingen.

K.-D. Hänsgen (2001). Hogrefe TestSystem . Einführung in die computerbasierte Psychodiagnostik. (Handbuch Band 2 ) unter Mitarbeit von R. Zumbrunn, J. Frossard, A.Crottet, J. Fäh, S. Simonet, B. Spicher, M. Strazzeri, K. Stress Göttingen: Hogrefe Verlag. Redaktion: K. Stress

Titel: B. Spicher

Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten.

Hogrefe Verlag für Psychologie, Göttingen 2002

Page 3: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

3

INHALT 1 WIE WERDEN COMPUTERBASIERTE TESTS EINGESETZT? .............................4

1.1 ENTWICKLUNG DES TESTSYSTEMS ..............................................................................7 1.2 WARUM COMPUTERBASIERTE DIAGNOSTIK?...............................................................9 1.3 TESTS FÜR EINE PRÄSENTATION AM COMPUTER........................................................14 1.4 NORMEN....................................................................................................................17 1.5 WEITERENTWICKLUNG VON TESTS............................................................................21

1.5.1 Konventionelle oder computerspezifische Tests? .............................................21 1.5.2 Neue Eingabe- und Interaktionsmedien ...........................................................24 1.5.3 Verbesserte Gestaltung von Tests.....................................................................26 1.5.4 Neue Parameter und Messmodelle ...................................................................28

1.6 WEITERENTWICKLUNG DER TESTSYSTEME................................................................30 1.6.1 „Prozedurale“ Weiterentwicklung ...................................................................30 1.6.2 Diagnoseprozess und „Objektorientierte Strukturierung“ ..............................31 1.6.3 Vernetzung: Internet und Diagnostik ...............................................................33 1.6.4 Normenproblem und Netz .................................................................................34

2 COMPUTER UND TESTENTWICKLUNG – FÜR AUTOREN...............................36

2.1 ZWEI MÖGLICHE MODELLE DER ZUSAMMENARBEIT..................................................37 2.2 NUTZEN FÜR TESTAUTOREN ......................................................................................37 2.3 TESTFACTORY – WERKZEUG FÜR DIE TESTENTWICKLUNG .......................................37

2.3.1 Ablauf einer Testentwicklung mit TestFactory.................................................41 3 EINSATZ DES TESTSYSTEMS ................................................................................42

3.1 TRAINING DER EINGABE UND ABBAU DER TESTANGST .............................................42 3.1.1 Übungsprogramm / Einführung - UEB ............................................................42 3.1.2 Mausübung .......................................................................................................45 3.1.3 Eingabetraining Tastatur und Maus - ETR ......................................................45 3.1.4 Sozialdateneingabe - SOZD..............................................................................46 3.1.5 Fragen zum Testerleben - FTE.........................................................................46 3.1.6 Visuelle Analogieskala - Stimmungsbarometer - VAS......................................47

3.2 BESONDERE OPTIONEN FÜR FRAGEBÖGEN ................................................................47 3.2.1 Analyse der Antwortzeiten ................................................................................49

3.3 STÖRUNGSDIAGNOSTIK IM LEISTUNGSBEREICH.........................................................50 3.3.1 Merkmalskonzept für den Leistungsbereich .....................................................53 3.3.2 Auswahl von Verfahren ....................................................................................59 3.3.3 Ergebnisse zu Leistungstests (verfahrensübergreifend) ...................................61 3.3.4 Befunde zur Aufmerksamkeitsdiagnostik ..........................................................63

4 INDEX..........................................................................................................................70

Page 4: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

4

1 Vorwort

Bisher wurde für jede Version des Hogrefe TestSystems ein komplettes Handbuch herausgegeben, welches sowohl die Erklärung der Bedienung enthielt, als auch zu Grundlagen der computerbasierten Psychodiagnostik Stellung bezieht. Das Handbuch hatte mittlerweile einen Umfang erhalten, der nicht mehr sinnvoll scheint.

Im Systemhandbuch (als Band 1) wird jetzt nur noch die Bedienung erklärt. Der vorliegende Band 2 enthält zunächst nur die nicht überarbeiteten Teile aus dem früheren Handbuch, damit auch diese Informationen verfügbar bleiben.

Es ist allerdings geplant, diesen Band gründlich zu erarbeiten und zu erweitern, um sowohl für Testanwender als auch für Testentwickler die Hinweise und Tips zusammenzustellen, die für eine optimale Nutzung des Testsystems nützlich erscheinen.

Page 5: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

5

2 Wie werden computerbasierte Tests eingesetzt?

Jeder Diagnostizierende, der mit dem Einsatz von Computerverfahren beginnt, sollte auch über die Art der Einbindung der Tests in seinen Diagnoseprozess genau nachdenken. Es kann zunächst festgestellt werden, dass die Akzeptanz des Computers erfreulich hoch ist und auch in Extremgruppen eher weniger Beschränkungen als erwartet vorliegen (vgl. Stout, 1981; Booth, 1988, 1990; Bukasa et al., 1990). Eigene Erfahrungen beim Einsatz in Studien mit vielfältigen Patientengruppen belegen, dass computerbasierte Verfahren hinsichtlich Akzeptanz und Durchführbarkeit den herkömmlichen Papier-und-Bleistift-Verfahren eher überlegen sind. Befragungen an Gesunden, die eine Intelligenztestbatterie sowohl am Computer als auch in konventioneller Papier-und-Bleistift-Form bearbeiteten, favorisierten im Urteil („Welche Form würden Sie lieber bearbeiten?“) nahezu einhellig die Computerform (Fenske, 1992).

Die folgenden Grundregeln sollten aber bei der Arbeit mit computerbasierten Methoden beachtet werden:

• Der Computer muss ergonomisch günstig aufgestellt sein (Tischhöhe, Stuhl, Abstände). Die Anforderungen an Computer-Arbeitsplätze dürften heute hinlänglich bekannt sein.

• Nie sollte mit der Computerdiagnostik begonnen werden. Das Gespräch und die Schaffung einer tragfähigen Beziehung sind auch für computerbasierte Diagnostik wichtig. Der Computereinsatz muss ebenso im Gespräch vorbereitet werden wie jeder andere Verfahrenseinsatz (vgl. auch Neumann et al., 1981, S. 91, 99). Eine Aufklärung über das Ziel der Untersuchung und eine Begründung dessen, warum mehr Information notwendig ist, sind erforderlich. Die Spezifik des Computers sollte dabei hervorgehoben werden (genauere Auswertung, Hilfe bei Fehlern, grössere „Geduld“ als der Mensch, Erhebung der gerade notwendigen Information, da eine sofortige Auswertung erfolgt...). Es liegen allerdings auch keine Hinweise vor, dass computerbasierten Diagnostik weniger gut akzeptiert wird als Papier-Bleistift-Tests.

• Ein Hinweis auf die Einhaltung des Datenschutzes muss gegeben werden. Dabei kann auf den speziellen Kennwortschutz hingewiesen werden (kein Zugang zu den Daten durch Unbefugte). Ebenso kann gegebenenfalls auf die codierte Speicherung personenbezogener Daten eingegangen werden.

• Der Diagnostikand soll die Tests selbständig bearbeiten. Bei Rückfragen sollte weitestmöglich nur der Hinweis erfolgen, die Instruktion genau zu beachten. Eine gewisse Scheu dem Computer gegenüber wird mitunter von Personen, die über keine oder wenig Vorerfahrung verfügen, als „Hilflosigkeitsangebot“ an den Diagnostiker gezeigt. Wenn man in dieser Phase zu stark darauf eingeht, mag es geschehen, dass sich der Diagnostiker bald dabei befindet, alles noch einmal selbst zu erklären und vielleicht sogar vorzumachen. Unsere Erfahrung zeigt, dass Ermutigung und der Hinweis auf die Instruktion in der Regel ausreicht, diese Phase zu überwinden. In diesem Zusammenhang ist auch wichtig, ob eine Person während der Diagnostik anwesend ist oder nicht. Wir würden dringend davon abraten, dass der Diagnostiker sich während der Untersuchung so positioniert, dass der Patient den Eindruck gewinnt, der Diagnostiker überprüfe die Antworten. Dies lenkt den Diagnostikanden ab; er kann ständig mit dem Gedanken beschäftigt sein, was der Diagnostiker von einer bestimmten Antwort halten mag und dies auch verbalisieren. Diese Ablenkung führt dann in der Regel zu schlechteren Leistungen.

Eine solche Situation entspräche der des Ausfüllens eines Papier-und-Bleistift-Verfahrens durch den Diagnostikanden, während der Diagnostiker hinter ihm steht. Es

Page 6: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

6

sollte allerdings immer eine Person (Diagnostiker, Hilfskraft) im Raum anwesend sein, die bei Problemen gegebenenfalls eingreifen kann. Sie sollte darauf achten, dass die Instruktionen eingehalten werden (z.B. Beantwortung nur mit einem Finger, wenn dies vorgeschrieben ist). Bei Fehlern ertönt in der Regel ein Signal, so dass in jedem Fall für den im Raum anwesenden Diagnostiker, auch wenn er gerade mit einer anderen Arbeit beschäftigt ist, eine Rückmeldung über die Bewältigung der Anforderung gegeben wird.

• Computergestützt erhobene Befunde müssen natürlich ebenso wie die Ergebnisse herkömmlicher Tests mit dem Patienten besprochen werden. Meist ergeben sich daraus auch wichtige Fragen für eine Nachexploration. Die Befunde sollten konkret und abgestimmt auf das Informationsbedürfnis des Probanden ausgewertet werden.

• Der Diagnostiker soll alle Verfahren, die er einzusetzen beabsichtigt, mindestens einmal selbst (vollständig) durchgeführt haben, um die Belastung für den Patienten adäquat einschätzen zu können. Besonders zu Beginn der Arbeit mit computergestützter Diagnostik sollte man zunächst nur wenige Verfahren hintereinander einsetzen und dann über eine eventuelle Fortsetzung der Untersuchung mit dem Patienten sprechen. Im Laufe der Zeit wird sich beim Diagnostiker ein Gefühl dafür ausbilden, welche Testfolgen bei welchen Patienten problemlos durchführbar sind. Dass eine Interaktion mit dem Diagnostiker, wie sie von Papier-und-Bleistift-Verfahren bekannt ist (sofern sie in seiner Anwesenheit durchgeführt werden), hier fehlt, wird zwar im Programm durch adaptative Gestaltung zum Teil ausgeglichen, dennoch hat der Diagnostiker darauf zu achten, eine sinnvolle Verfahrensauswahl vorzunehmen. Dies kann nicht durch das Programm selbst erfolgen.

Das Programmsystem ist so ausgelegt, dass viele „Freiheitsgrade“ vorhanden sind. Dies setzt aber natürlich für die Anwendung eine hinreichende Kenntnis des Programms und seiner Möglichkeiten voraus. Wir bitten deshalb jeden Anwender, sich die Grundlagen der Verfahren ausreichend intensiv zu erarbeiten, bevor ein praktischer diagnostischer Einsatz erfolgt. Auch das beste Computerprogramm kann und soll den Diagnostiker nicht ersetzen; die konkrete diagnostische Entscheidung ist und bleibt eine Aufgabe des „menschlichen“ Diagnostikers. Dies ergibt sich nicht nur aus der Komplexität der notwendigerweise zu berücksichtigenden Informationen, sondern auch aus der nicht delegierbaren Verantwortung.

Standardisierte Diagnostik (auch diejenige, die ohne Computer durchgeführt wird) bedeutet immer „Reduktion“ der Individualität, die unumgänglich ist, um Individuen überhaupt miteinander vergleichen zu können. Bei einem solchen Vergleich „transferierten“ Wissens bedarf es immer der Verifikation seiner Gültigkeit im konkreten Einzelfall.

Es ist auch ein Wort zu ethischen Aspekten notwendig: Wir sind der Meinung, dass Computerdiagnostik hier gegenüber den „konventionellen“ diagnostischen Methoden grundsätzlich keine besondere Situation darstellt. Durch den Methodeneinsatz ändert sich die diagnostische Situation, die Beziehung Patient (Klient, Proband) - Diagnostiker, nicht. Das Zustandekommen der diagnostischen Situation durch eine Problemsituation, die Verantwortung des Diagnostikers, die Vertraulichkeit u.ä. sind prinzipiell gleich definiert.

Von daher ist über die Notwendigkeit und Vertretbarkeit der Anwendung jeder Methode (auch eines langen Fragebogens oder eines Konzentrationstests) zu entscheiden. Selbstverständlich sind Spezifika des Computereinsatzes zu beachten, die aber durchaus Vorteile mit sich bringen können (Adaptivität, mehr Information über Verlauf). Aufgrund unserer Erfahrungen würden wir im Moment nur wenige Situationen sehen, in der Papier-und-Bleistift-Verfahren anwendbar, vergleichbare Computerverfahren aber nicht zu benutzen wären.

Auch die Registrierung ergänzender Daten (Stout, 1981), wie beispielsweise Reaktionszeiten bei der Fragebogenbeantwortung (Booth, 1990), und deren Verwendung über die

Page 7: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

7

Eindrucksvalidität hinaus ist keine Erfindung der Computerdiagnostik. Projektive Verfahren und objektive Persönlichkeitstests im Sinne der OA-TB (= Objective Analytic Test Battery) müssten sich eine Diskussion darüber gleichfalls gefallen lassen. Selbst bei der begleitenden Verhaltensbeobachtung durch den Diagnostiker werden in der Regel Informationen gewonnen, die für den Patienten nicht durchschaubar sind. Dabei ist auch nicht zu vergessen, dass die psychodiagnostische Situation in der Regel zustande kommt, weil der Patient sich und seine Beziehungen zur Umwelt als nicht ausreichend kontrollierbar erlebt.

Als Eingabemedium wurde für Leistungstests in den Normierungsuntersuchungen eine Probandentastatur verwendet, welche nur die Zahlentasten, eine Leer- und je eine Taste für Ja und Nein enthält. Verwendet man diese Normen, sind vergleichbare Bedingungen notwendig. Entweder es wird ebenfalls eine Probandentastatur verwendet - oder es wird die obere Zahlenreihe zur Eingabe auf einer Standardtastatur verwendet, wobei die übrigen Tasten abgedeckt werden.

2.1 Entwicklung des Testsystems

Die Hogrefe TestSystem Version 3 wird seit Ende 1997 in einer 32BIT-Version angeboten, die für WINDOWS 95 bzw. WINDOWS 98 entwickelt wurde. Dank neuer Technologien (durchgängiges modernes Datenbankkonzept, Nutzung objektorientierter Programmierung) entstand ein grundsätzlich neues System, welches für Anwender und auch Testautoren in der Handhabung einfache und dabei verblüffend vielfältige Funktionen bietet. Es hat sich gelohnt, das System recht spät umzustellen: jetzt erst verfügbare Technologien gewährleisten, dass wir zukünftig mit WINDOWS gemeinsam wachsen. Die Bedienung bleibt dank konsequenter Orientierung am Diagnoseprozess einfach und intuitiv. WINDOWS-Standards werden eingehalten und die Anwender können auf entsprechende Erfahrung zurückgreifen. Die Präsentation der meisten Informationen erfolgt HTML-gestützt und wird dadurch auch einfacher auf zukünftig absehbare Systeme portierbar sein.

Version 3.1 ist zur Version 3.0 aufwärts kompatibel. Vor allem die Testdurchführung wurde optimiert. HTML zieht auch in die Präsentation von Tests ein, und neue Gestaltungselemente lassen auch multimediale Präsentationen möglich werden. Vor allem die Autoren von Tests werden es mit dem neuen Modul Hogrefe TestFactory leichter haben, Tests zu gestalten. Ein Autorensystem wurde genau auf die Möglichkeiten des Testsystems abgestimmt, und die Pflege aller Informationen eines Tests ist in einer einheitlichen Datenbank möglich - Items, Skalen, Normen, Beschreibungen, Texte für Profilblätter u.v.m. Diese Datenbank dient dem neuen System direkt als „Script“, um die Tests auch entsprechend durchzuführen. Nach einer ausführlichen Testphase werden wir dieses Modul Testautoren bereits bei Beginn einer Testentwicklung zur Verfügung stellen können. So können alle Möglichkeiten des Computers auch wirklich ausgeschöpft werden. Auf der „Warteliste“ steht auch die Auswertung weit vorn. Hier werden grafische und Tabellenelemente noch flexiblere Gestaltungsmöglichkeiten der Ergebnisse erlauben.

Das Internet wird in das Konzept „Testsystem“ einbezogen. Dies beginnt mit einer angemessenen Präsenz von Service und Informationen. Die Verwendung von HTML und anderen Technologien macht es aber auch möglich, bestimmte Teile des Testsystems (etwa das Informationssystem) genauso im Internet aufrufbar zu machen, wie es von „herkömmlichen“ Arbeitsplätzen her möglich ist. Dies wird beim „Testing on demand“ enden: aktuelle Test- und Auswertemodule werden direkt durch das Internet bezogen. Eine Herausforderung für den Datenschutz - der unter diesen Bedingungen grundsätzlich realisierbar scheint.

Page 8: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

8

Auch die Grundlagenforschung für die Nachfolgerversionen wird nicht vernachlässigt. Vernetzung und neue Möglichkeiten der Hard- und Softwareentwicklung können zu etwas führen, was mit „kooperativer Wissensevolution“ beschrieben werden kann. Dann wird die Informationsverarbeitung von Diagnostiker und Computer besser aufeinander abgestimmt werden können - der Computer wird seiner Funktion als Unterstützungswerkzeug besser gerecht werden. Die Verantwortung des Diagnostikers für die Entscheidung bleibt ungeschmälert.

Bei der Programmentwicklung kann nunmehr auf über 10 Jahre Erfahrung zurückgeblickt werden. Nirgendwo sonst müssen Erfahrungen allerdings so oft revidiert werden wie bei Computerprogrammen. Das konstante Element war deshalb immer nur die Frage, inwieweit Computer zur Unterstützung des Diagnoseprozesses eingesetzt werden können - die Möglichkeiten der Umsetzung veränderten sich. Dabei war über die Formalisierbarkeit des Diagnoseprozesses, den tatsächlichen Anteil von statistischer und klinischer Urteilsbildung und die Verschränkung mit heuristisch-intuitiven Strategien nachzudenken. Das „Ziel“ konnte klarer gesehen werden - die „Mittel“ wurden immer besser. Gegenwärtig ist es so, dass in der Informatik Lösungen für Informationsverarbeitungsprobleme erarbeitet worden sind, welche die Theoriebildung zum Diagnoseprozess ihrerseits anregen.

Von 1986 bis 1989 wurde eine BASIC-Version des Programms (BVCD: Hänsgen, 1989) für Mikrocomputer entwickelt und erprobt. Bereits zu dieser Zeit wurden alle Steuerfunktionen (Zeitnahme, Bildaufbau) rechnerunspezifisch programmiert, um Verzerrungen durch spätere, schnellere Compiler-Versionen zu vermeiden und damit die weitere Verwendbarkeit der Normen zu gewährleisten. Die nachfolgende erste PC-Programmversion, seit 1989 im Einsatz, wurde in Turbo-Pascal programmiert und ist dadurch wesentlich komfortabler. Die übersichtliche Strukturierung von Verfahren war ein wichtiges Ziel des Projektes. Deshalb wurden Module entwickelt, um die einzelnen Verfahren für Anwendergruppen vorzustrukturieren. Diese waren LEILA (Leistungsdiagnostisches Labor), CORA (Computerbasierte Ratingverfahren), PERSYS (Persönlichkeitsdiagnostisches System), KIDIS (Kinderdiagnostisches System) und - nie als separates Modul fertiggestellt - EIGNOS für die Eignungsdiagnostik. Alle Module verwendeten die gleiche Programmoberfläche - nur die Hilfen und die Verfahren waren verschieden. Die zu starke Unterteilung hatte sich letztendlich nicht bewährt - ein einheitliches System wurde gewünscht, welches man nach seinen Bedürfnissen im „Baukastenprinzip“ konfigurieren kann.

Seit 1993 - mit den Systemen LEILA 2.0 und CORA 1.0 - wird BORLAND PASCAL 7.0 genutzt. Im Jahre 1994 wurden alle Module unter dem Namen Hogrefe TestSystem (Version 2) zusammengefasst - aber im Untertitel jeweils noch getrennt. Ein Meilenstein war 1996 die Einführung der Version 2.4, wo eine WINDOWS nachempfundene Grafikoberfläche unter DOS Einzug hielt. Die damit möglichen Layouts für die Durchführung wären heute noch vom ergonomischen Standpunkt her verwendbar. Das Bedürfnis, wirklich WINDOWS zu verwenden, wird vor allem aus den neuen Möglichkeiten, das System auf den Diagnoseprozess besser abzustimmen, gespeist.

Datensicherheit, Zugriffsschutz und Qualität der Tests stehen wie bisher im Mittelpunkt der Systementwicklung. Bewährtes für die praktische Diagnostik zu erhalten und Neues zu entwickeln sind Anliegen des Hogrefe TestSystems. Neben völlig neuen Tests und Testprinzipien haben auch bewährte Tests durch neue Parameter und Auswertungen, etwa zum Zeitverhalten, an Aussagekraft gewonnen.

Page 9: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

9

2.2 Warum Computerbasierte Diagnostik?

In der Literatur werden Attribute wie computer assisted, computer aided, computer supported, computer based bzw. computergestützt, computerunterstützt, rechnergestützt oder computerbasiert jeweils für Test(s), Testen oder Diagnostik genutzt, um das Gebiet zu beschreiben (vgl. etwa Booth, 1990; Kubinger, 1995). Das Attribut „psychologisch(e)“ sollte immer mit verwendet werden, weil Diagnostik auch in anderen Fachgebieten unter Nutzung von Computern stattfindet. Der Begriff „Computerdiagnostik“ ist von allen der schlechteste, weil mehrdeutig (Diagnostik von Computern?).

Wir entscheiden uns für „computerbasiert“, weil dies die Bedeutung des Computers ausreichend darstellt, ohne die Kompetenz des Diagnostikers einzuschränken. Modelle der „kooperativen Wissensevolution“ in Mensch-Computer-Interaktionen gehen von einer fast „partnerschaftlichen“ Annäherung der Vorgehensweise beider Seiten aus (s. Abb. 1) - es gibt keine strenge Trennung oder Abgrenzung der Prozesse. Dem steht der Verantwortungsaspekt der Diagnostik entgegen, der bei der Wortwahl erhalten bleiben sollte. „Computerunterstützt“ würde letzteren zwar noch stärker betonen, würde dabei aber der neuen Stellung des Computers im Informationsverarbeitungsprozess etwas weniger gerecht.

Wenn man heute über computerbasierte Psychodiagnostik diskutiert, sind zwei Aspekte für den Computereinsatz zu unterscheiden:

- Direkte Verfahrensdurchführung bzw. standardisierte Informationsgewinnung am Computer (unmittelbar in der Relation Diagnostikand–Computer oder unter Zwischenschaltung eines „Testleiters“, etwa bei Fremdbeurteilungsmethoden). Es scheint nicht sinnvoll, zwischen dem Computer zur Steuerung peripherer Geräte und zur Testvorgabe zu unterscheiden (z.B. Kubinger, 1995), weil die Testvorgabe ebenfalls periphere Geräte (Monitor, Tastatur, Maus etc.) benutzt.

- Computereinsatz im Diagnoseprozess zur „Datenverarbeitung“ von der Auswertung bis zur rechnergestützten Urteilsfindung und Befundung (in der Relation Diagnostiker-Computer).

Man kann „herkömmlich“ erhobene Daten ebenso computerbasiert weiterverarbeiten (etwa im Konzept DIASYS von Hageböck, 1994), wie auch Daten von „Computertests“ in konventionellen Urteilsprozessen Berücksichtigung finden können (was für solche Tests sogar am verbreitetsten sein dürfte). Dennoch gehören beide Aspekte zusammen, will man die Möglichkeiten des Computers voll ausschöpfen.

Auch für die Entwicklung von Verfahren wird der Computer bedeutsam. Zum einen können Datenbankkonzepte genutzt werden, um sogenannte Itembänke anzulegen und die Ergebnisse verschiedenster Studien itemspezifisch zu speichern und abrufbar zu machen. Daraus können neue Testformen zusammengestellt werden, die z.B. bestimmte Schwierigkeitsvorgaben erfüllen oder adaptiv konzipiert sind. Das wohl ehrgeizigste Projekt wäre hier eine europäische Itembank, wo Items in verschiedenen Sprachen und mit entsprechenden Ergebnissen abgelegt werden (was als mögliches Projekt der Europäischen Testverlage diskutiert wird).

Zum anderen stehen neue Werkzeuge zur Verfügung, die das „Programmieren“ von Tests transparenter und leichter nachvollziehbar machen - oder durch Scriptverwendung sogar frei von Programmierkenntnissen werden lassen.

Wir verstehen nachfolgend Psychodiagnostik immer als indikationsorientiert: Für das Finden einer Entscheidung (Eignung für eine Tätigkeit, Chancen auf einem Bildungsweg, Vorliegen

Page 10: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

10

einer Störung, Auswahl der geeigneten Therapie) sind Informationen über den Diagnostikanden notwendig, die dem Diagnostiker auf der Basis seines vorhandenen (Prognose-)Wissens eine optimale Entscheidung erlauben.

COMPUTER

Wissensdatenbank und Unterstützung der Entscheidungsfindung

Datenverdichtung, -bewertung, -gewichtung

Datenregistrierung, -auswertung, -darstellung, -speicherung

Abbildung 1: Modell der „kooperativen Wissensevolution“ in Mensch-Computer-Interaktionen.

Warum erfreut sich der Computer überhaupt einer solchen Beliebtheit im Rahmen der Psychodiagnostik und woraus lassen sich die Hoffnungen auf einen Leistungszugewinn begründen?

- Merkmalsgüte: Am Computer direkt erhobene Informationen könnten durch höhere Objektivität (etwa Minimierung der Testleiter-Varianz, genauere Standardisierung der Abläufe), genauere Ereignisregistrierung (jede Einzel-Reaktion mit ihrer zugehörigen Zeit), Fehlerkontrolle (Ausreisser, Prüfung des Instruktionsverständnisses) oder neue methodische Strategien (neue Parameter, adaptives Testen, Multimedia-Nutzung) eine bessere diagnostische Validität aufweisen. Kritisch muss man hier anmerken, dass dies im Einzelfall nachzuweisen bleibt – Computertests sind nicht „automatisch“ valider.

- Urteilsgüte: Diagnostik ist in der Regel recht umfangreiche Informationsverarbeitung. Die „statistische Urteilsbildung“ wäre genau auf die Möglichkeiten des Computers zugeschnitten – unter der Voraussetzung, dass explizite und validierte Regeln für die Entscheidungsfindung existieren. Diese festen Regeln und Algorithmen müssten letztendlich „nur abgearbeitet“ werden. Seit der berühmten Arbeit von Meehl (1954) zum Vergleich klinischer und statistischer Urteilsbildung fehlt es nicht an Hinweisen, dass die statistische Urteilsbildung unter bestimmten Umständen einer klinischen Urteilsbildung

DIAGNOSTIKAND

Computerbasierte Tests

Dateneingabe zur Auswertung

Unterstützung Diagnoseprozess

Konventionelle Tests,

Beobachtung

DIAGNOSTIKER Direkte Interaktion

Page 11: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

11

(welche auch Erfahrung und Intuition des Diagnostikers zulässt) überlegen sein kann. Kritisch muss man fragen, ob diese Überlegenheit statistischer Urteilsbildung nur für gut eingegrenzte - und damit wenige - Fragestellungen gilt. Einzelfallorientierte und eher klinische Urteilsbildung bleibt als häufigere Anforderung dann notwendig, wenn komplexere Entscheidungssituationen vorliegen, wenig(er) Prognosewissen vorhanden ist und der Diagnostiker bei seiner Hypothesenbildung auch auf bestimmte heuristische Strategien angewiesen ist. Durch „Scheinformalisierung“ könnte ein solches Vorgehen v.a. bei komplexen Fragestellungen an Güte verlieren.

- Wissens-Transfer: Es besteht der Wunsch, die Kompetenz der „besten Experten“ auf dem jeweiligen Gebiet für die jeweilige Entscheidungsfindung verfügbar zu machen. In Expertensystem-Konzeptionen spielt der Begriff des „Expertenmodells“ daher eine grosse Rolle – anhand dieses Modells werden diagnostische Entscheidungen vorgeschlagen, die der weniger Erfahrene oder sogar der psychologische Laie dann übernehmen könnte. Der Diagnostiker könnte letztlich durch sein eigenes Modell „ersetzt“ werden, was man auch als „bootstrapping“ bezeichnet. Kritisch wäre es, (1) wenn die Kompetenz des anwendenden Diagnostikers nicht ausreichen würde, die Entscheidungsprozesse zu verstehen und ihre Gültigkeit im Einzelfall zu prüfen und (2) wenn eine „Technikgläubigkeit“ die Verantwortung der Diagnostiker für ihre Entscheidungen ersetzen würde.

Der Transfer ist natürlich nur für den Teil der diagnostischen Entscheidung möglich, der sich aufgrund von diagnostischen „Abbildern“ bzw. Merkmalskonstellationen überhaupt vorhersagen lässt. Verbesserter Transfer von Wissen bleibt dennoch ein wichtiges Ziel: Wissen, welche Diagnosen existieren, welche Zuordnungsvorschriften dafür gelten, welche Wissensbestände für diese Diagnosen vorliegen, ob es Einzelfallerfahrungen zu diesen Diagnosen gibt, welche diagnostischen Merkmale relevant sind, welche Verfahren für die Erfassung von Merkmalen existieren u.v.m. lässt sich durch die neuen Technologien wesentlich besser vermitteln (z.B. allein durch die Nutzung von Hypertext). Neben der Möglichkeit zum Abruf von Wissen ist auch eine effektivere Registrierung eigener Erfahrungen möglich. Die dazu notwendige, etwas andere Orientierung der Computerprogramme in Richtung einer „kollektiven Wissensevolution“, einer echten Vernetzung menschlicher und computergestützter Informationsverarbeitung wird uns noch beschäftigen.

- Zeitökonomische Vorteile: Delegiert man einen Teil der Informationsgewinnung an den Computer, sollte die gewonnene Zeit für spezifischere Interaktion mit den Diagnostikanden benutzt werden. Es soll nicht unerwähnt bleiben, dass Erwartungen eines Zeitgewinnes manchmal an erster Stelle stehen. Aufgrund des Zwanges zu mehr Effektivität erscheint dies legitim - vor allem wenn die Alternative darin bestünde, die notwendigen Informationen nicht oder nicht ausreichend zu erheben. Zeitökonomie kann auch in verbesserte Qualität umschlagen: Auswertungszeiten entfallen und die Ergebnisse stehen unmittelbar nach der Durchführung zur Verfügung. Man kann sie sofort nach der Durchführung mit den Diagnostikanden besprechen oder „makroadaptiv“ vorgehen, indem das Resultat von Tests die jeweilige Auswahl und Durchführung der folgenden beeinflusst. Auch Vorteile einer einheitlichen Datenverwaltung und Befundung gehören hier mit erwähnt. Kritisch wäre es, wenn die direkte Interaktion Diagnostiker-Diagnostikand und deren Beziehung qualitativ eingeschränkt würde.

Wegen der recht breiten Verfügbarkeit der notwendigen Technik und entsprechend einfach zu bedienenden Programme kann man heute von einer grossen Bereitschaft ausgehen, Computer in der Psychodiagnostik zu nutzen. Auch bezüglich der Akzeptanz von Computern bei den Diagnostizierten finden sich keine Hinweise in der Literatur, dass die Computerverwendung

Page 12: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

12

der herkömmlichen Diagnostik unterlegen sei (dazu z.B. Merten & Ruch, 1996). Es gibt eher Hinweise auf eine erhöhte Selbstaufmerksamkeit (Franke, 1998), und darauf, dass Probanden die Testung als angenehmer als bei Papier-Bleistift-Verfahren erleben (Rosenfeld & Hänsgen, 1992; Murer, 1996). Auch in 10 Jahren praktischer Anwendung computerbasierter Instrumente durch den Autor sind keine generalisierbaren Einwände gegen dieses Medium durch die Untersuchten vorgebracht worden.

Rechnet man Datenverwaltung und -auswertung mit, dürfte die Geschichte der computerbasierten Psychodiagnostik mit der des Computers ziemlich synchron verlaufen. Für Zwecke der Auswertung wurden Rechner schon in den 50er Jahren genutzt, v.a. für MMPI-Auswertungen. Die ersten spezifischeren Ideen des Computereinsatzes in der psychologischen Diagnostik bezogen sich auf das „massgeschneiderte Testen“ (vgl. dazu Wottawa, 1993). Geplant waren Computervorgaben von Tests, die eine probandenspezifische Itemselektion ermöglichen und damit die Testzeit verkürzen. In der Zwischenzeit hat sich der Computereinsatz in den verschiedenen Gebieten der psychologischen Diagnostik etabliert. Der Schwerpunkt liegt allerdings nicht im „massgeschneiderten Testen“, sondern ist wesentlich breiter verteilt (Datenverwaltung, Testauswertung, Durchführung nichtadaptiver Tests u.a.). Hauptmotiv ist wohl vor allem die Erhöhung der Effektivität der Diagnostik (Zeitökonomie, schnellere Verfügbarkeit von Befunden, vereinfachter Daten- und Befundaustausch).

Gleichzeitig ist auch festzustellen, dass zu wenig Grundlagenforschung betrieben wird (vgl. ebenfalls Wottawa, 1993). Ein Grund liegt sicher darin, dass Diagnostik-Theorie und Informatik sich aufeinander beziehen müssen – beim Tempo der Informatik-Entwicklung ist das „Schritthalten“ für die Psychodiagnostik nicht immer einfach.

Zwei Voraussetzungen des Diagnostizierens gelten auch für die computerbasierte Psychodiagnostik und stehen vielleicht zu wenig im Vordergrund der Diskussion:

- Diagnostik basiert auf der Vergleichbarkeit von Individuen aufgrund der gewonnenen diagnostischen Informationen: Es reicht nicht, Individuen zu beschreiben - aufgrund der Merkmale sollen Zuordnungsentscheidungen zu Diagnosen bzw. Wissensbeständen getroffen werden, welche die Ableitung von Indikationsentscheidungen erlauben. Hier wird vor allem das Fairness-Kriterium bedeutsam: Jede Person muss die gleiche Chance haben, ein gutes Testergebnis zu erzielen. Je komplexer aber die Anforderungssituation wird und je verschiedenartiger die „Wege“ durch die Testanforderungen sind (z.B. bei adaptiven Designs oder Programmen mit dem Charakter experimenteller Spiele), desto mehr Bedeutung gewinnt die Frage, ob Ergebnisse verschiedener Personen oder, genauer, aus verschiedenen Testsituationen noch aufeinander beziehbar sind. Messen die einzelnen Parameter kontextunabhängig dann immer noch das gleiche?1 Es wäre denkbar, dass bereits eine zu komplexe Präsentation mit Multimedia-Nutzung, welche unterschiedliche

1 In vielen Problemlöseszenarien sind die möglichen nächsten Schritte davon abhängig, welche Entscheidungen man vorher getroffen hat. Nach einer ungünstigen Entscheidung sind darauffolgende Entscheidungssituationen andere als nach einer günstigen Entscheidung: im ersten Fall muss das „Kollabieren“ des Systems abgewendet werden und die Freiheitsgrade sind eingeengt. Im zweiten Fall ist der „Entscheidungsdruck“ wesentlich geringer und die Freiheitsgrade sind grösser. Ist nun diese erste Entscheidung auch noch teilweise zufallsabhängig, kann nur schwerlich eine vergleichbare Schwierigkeit beim Bewältigen der Anforderungen - und damit der Fairness - hergestellt werden. Konsequenterweise ist die Vergleichbarkeit der Personen nicht gegeben oder zumindest eingeschränkt.

In einem Test unter Virtual-Reality-Bedingungen wurden ähnliche Erfahrungen gemacht (Hänsgen & deWith, 1999). Es wird ein „Weg“ durch eine virtuelle Umgebung zurückgelegt und es ist auf bestimmte Ereignisse zu reagieren. Die Präsentation der Ereignisse hängt vom Weg, von der jeweiligen Position bei Auftreten des Ereignisses ab. Dies beeinflusst die Schwierigkeit der Reaktionen und wirkt sich z.B. konsistenzmindernd auf Itemebene aus.

Page 13: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

13

Fokussierung der präsentierten Informationen zulässt (z.B. gleichzeitig akustische und visuelle Instruktionen), keine vergleichbaren Bedingungen gewährleistet. Diese Fragen sollten zukünftig mehr Gewicht in der Forschung erhalten - statt der zahlreichen Untersuchungen einer globalen „Äquivalenzforschung“ herkömmlicher und computerbasierter Verfahren, welche die letzteren Verfahren so nehmen, wie sie sind, sollte man experimentell vorgehen und die Bedingungen genauer isolieren, die tatsächlich für Unterschiede sorgen. Aufgrund dieser Ergebnisse kann man dann gezielt die notwendige Vergleichbarkeit herstellen.

- Vorhersagbarkeit (etwa von Erfolg, der Bewältigbarkeit von Anforderungen aus den Ergebnissen der Diagnostik) lässt sich nur verbessern, wenn der Fragestellungsbezug innerhalb der Diagnostik stärker thematisiert wird. Zu oft ist man noch damit zufrieden, „die Intelligenz“ oder „die Konzentration“ zu messen. Welche diagnostischen Entscheidungen auf dieser Basis getroffen werden, bleibt dem Ermessen des Diagnostikers oft recht freizügig überlassen und ist nicht ausreichend wissenschaftlich evaluiert. Der Computer bietet hier allerdings neue Möglichkeiten, dieser Frage nachzugehen, auch die Testentwickler müssen sich verstärkt darum bemühen. Grundsätzlich gilt, dass keine Einzelfallentscheidung auf der Basis eines einzelnen Testergebnisses getroffen wird. Erst die Integration der verschiedenen diagnostischen Informationen führt zur Entscheidung. Viele Zusammenhänge werden sich vermutlich erst zeigen, wenn man tatsächlich ein multimodales Vorgehen verwirklichen kann, wenn das Abbild ausreichend differenziert und komplex ist. Dies ist zugleich einer der wichtigsten Gründe für den Einsatz von Computern: sie sind für die Verarbeitung dieser Informationsmengen erfunden worden. Das Haupthindernis, systematisch entsprechende Daten zu sammeln und retrospektiv auf diagnostisch nutzbare Gesetzmässigkeiten hin zu untersuchen, scheint die schlechte Handhabbarkeit entsprechender Programme und Datenbankkonzepte zu sein. Sie lassen sich nur schwer im praktischen Diagnoseprozess verwenden, ihre Datenspeicherung ist auf wenige Testergebnisse beschränkt. Erst wenn der Nutzen, alle gewonnenen Informationen eines diagnostischen Entscheidungssachverhaltes zu registrieren, den dazu notwendigen Aufwand übersteigt, wird sich eine Änderung erreichen lassen. Dies ist vor allem eine Frage der Programm- und Interfacegestaltung. Wenn dann allerdings genug Daten aggregiert und zusammengeführt werden können, sollte eine qualitative Verbesserung recht schnell möglich werden. Wir kommen darauf zurück.

Es sei auch festgehalten, was computerbasierte Diagnostik nicht ist oder nicht sein sollte:

- Die diagnostische Interaktion wird nicht dem Computer vollständig überlassen. Die Einleitung der Diagnostik mit genauer Erläuterung des Sinnes der Untersuchung, die Erzeugung einer diagnostischen Compliance, bleibt nach wie vor wichtig. Im übrigen sollte ein Grossteil der gewonnenen Zeit dazu genutzt werden, das verstärkt zu tun, was wegen Zeitknappheit sonst meist zu kurz kommt: das Gespräch mit den Diagnostikanden zu führen.

- Computerbasierte Diagnostik bedeutet nicht den Verzicht auf Verhaltensbeurteilung. Diese früher oft geäusserten Befürchtungen sind durch die Realität schnell entkräftet worden. Auch die Beobachtung der Interaktion mit dem Computer bietet mehr als reichhaltiges Material mit Rückschlussmöglichkeit auf Motivation, Verhaltensauffälligkeiten etc. Dieses steht den in klassischen Testapplikationen gewonnenen Informationen keinesfalls nach.2

2 Vor allem bei der Diagnostik von Kindern und Jugendlichen ist entsprechendes Verhalten recht deutlich zu beobachten. In einem computergestützten Intelligenztest hatte ein Kind einen IQ von weit über 100 - zeigte dabei

Page 14: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

14

- Computerbasierte Diagnostik bedeutet nicht die Aufgabe von Vertraulichkeit. Die Richtlinien zum Datenschutz sind streng und wenn sie eingehalten werden, ergeben sich auch praktisch kaum Missbrauchsmöglichkeiten von Informationen. Vor allem in Netzwerken müssen entsprechende Schutzmassnahmen ergriffen werden, damit nur Berechtigte die entsprechenden Daten auswerten. Auf die Standard-Schutzmassnahmen der Betriebssysteme und Anwendungsprogramme (z.B. der Datenbank-Programme) sollte man sich allerdings nicht verlassen - in der Regel erscheinen kurz nach der Veröffentlichung bereits Werkzeuge, um diese zu umgehen. Eigene, für Psychodiagnostik spezifische Schutzmassnahmen finden dagegen bei „Hackern“ weniger Interesse und bieten deshalb etwas mehr Schutz.

2.3 Tests für eine Präsentation am Computer

Auf die folgenden Schwerpunkte wurde bei der Erarbeitung des Programms besonders geachtet:

Umgebungstrennung Proband und Diagnostiker: Der Patient sollte den Rechner praktisch nicht sehen. Vor ihm sollten idealerweise nur Monitor und Reaktionspult (Probandentastatur) bzw. PC-Tastatur stehen. Nur die Reaktionstasten sind definiert. Ein Abbruch und Rücksprung in die Diagnostiker-Umgebung ist nur bei Kenntnis bestimmter Codes möglich. - So kann es zu keinen Fehlbedienungen kommen (z.B. irrtümliches «Reset»). Die Testangst wird nicht durch den Anblick komplizierter Technik bekräftigt.

Einfache Eingabemöglichkeit: Für das Hogrefe TestSystem ist eine spezielle Probandentastatur erhältlich, die nur die notwendigen Eingabetasten in übersichtlicher Form enthält. Bei einigen Tests kann auch auf die herkömmliche Tastatur zurückgegriffen werden (z.B. Fragebogenbeantwortung am Notebook). Dann sollten nur die notwendigen Tasten sichtbar sein (Zahlentasten, grosse Leertaste). Die übrigen Tasten können sehr einfach mit gefaltetem Papier abgedeckt werden. Die Zahlenreihe der Tastatur entsprechend der „Schreibmaschinen-DIN-Norm“ wird bei allen Eingabeeinheiten als Standard vorausgesetzt. Ein Touchscreen ist für die meisten Tests mit Mausunterstützung ebenfalls verwendbar - vor allem bei Fragebögen ist dies sehr sinnvoll.

Man beachte jedoch den Normeinfluss des Eingabemediums bei Leistungstests - wählen Sie dort grundsätzlich das Standard-Eingabemedium.

Fehlertoleranz des Programms gegenüber allen Eingaben: An jeder Stelle muss jeder Tastendruck (einschliesslich mehrfachen Drückens) definiert sein und eine Fehlerbehandlung testspezifisch erfolgen (z.B. Patient ignoriert Antwort oder Aufforderung zur Neueingabe). In der Regel wird nach einem Fehler kein „Absturz“ des Programms erfolgen, sondern nach der Fehlermeldung werden ein oder mehrere Versuche unternommen, den Fehler abzufangen.

Datenspeicherung innerhalb eines einheitlichen Rahmens: Dieser muss für alle Tests gültig sein, so dass die Implementierung einer Datenbank ermöglicht wird. Dabei werden ausschliesslich Primärdaten („fundamentale Parameter“) im Verlauf gespeichert; alle

aber Verhaltensweisen (motorische Aktivität, Kopf auf die Tastatur legen, Abwenden u.a.), welche ein Testleiter in konventionellen Tests sehr wahrscheinlich nicht geduldet hätte - es war nicht davon auszugehen, dass die Aufgaben überhaupt bearbeitet werden. Die Wiederholung mit einem anderen computergestützten Test führte zum gleichen Ergebnis. Interessant war, dass das Kind wegen Leistungsschwäche in der Schule psychologisch untersucht worden ist und mit dem HAWIE ein IQ von weit unter 100 festgestellt worden ist, was zum Entscheid der Notwendigkeit einer Sonderbeschulung führte. In diesem Fall wurde die Diagnose noch einmal überdacht.

Page 15: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

15

abgeleiteten Parameter werden im Auswertungsprogramm jeweils neu berechnet. Damit sind keine Redundanzen im abgespeicherten Resultat enthalten. Dieses Vorgehen spart Speicherplatz und erhöht die Geschwindigkeit der Weiterverarbeitung.

Automatische Befundung: Diese bedeutet für den Diagnostiker eine wesentliche Erleichterung. Sie soll in fünf Schritten erfolgen und ist bis zum Punkt (3) bereits heute realisierbar - die Punkte (4) und (5) erfordern grössere Datensätze, die allerdings mit dem Hogrefe TestSystem sehr viel einfacher und schneller gesammelt werden können. Wir haben jedoch nach wie vor Bedenken, die „Automatik“ bei der Befundung zu weit zu entwickeln. Zu schnell besteht die Gefahr einer unkritischen Anwendung bzw. Interpretation der Ergebnisse:

1. Berechnung und Ausdruck der Parameter für die einzelnen Tests auch unter Verwendung ipsativer Normierung und Differenzbildung;

2. normative Bewertung der Einzelparameter mit einer Normalstichprobe und bestimmten Kriteriumsgruppen als Referenz;

3. testübergreifende Befunddarstellung und Parameterberechnung (Differenzbildung, Verhältnisberechnung);

4. testübergreifende Typisierung;

5. ”Typeninterpretation” durch ein Expertensystem.

Sinnvolle Verbindung von Papier-und-Bleistift- und Computerformen: Die bisherige Diagnostikforschung und Verfahrensentwicklung kann auf einige hervorragende Leistungen im Urteils- wie im Leistungsbereich zurückblicken. Der Übergang zu einer neuen Technologie sollte nicht zum Verlust des bisherigen Kenntnisstandes führen. So können Fragebögen weiterhin ökonomisch als Papier-und-Bleistift-Varianten durchgeführt werden, die Dateneingabe mittels Computer erlaubt eine Auswertung und Speicherung der Daten im Rahmen des Programmsystems.

Entlastung der Forschung von Routinetätigkeit: Ein Problem ist die Erstellung von Dateien für die statistische Auswertung. Die Exportfunktion erlaubt es, Daten in verschiedensten Formaten für die Weiterverarbeitung in Statistikprogrammen aufzubereiten und einfache statistische Auswertungen schnell im Testsystem selbst vorzunehmen.

Das Hogrefe TestSystem ist als offenes System eine Verfahrenssammlung, die dem Diagnostiker selbst die fragestellungsspezifische Auswahl der Verfahren überlässt. Die einbezogenen Instrumente sind unterschiedlichen Kategorien zuzuordnen:

• Originäre Computertests sind solche Verfahren, die vorher noch nicht in durchführbarer Form (etwa als Papier-und-Bleistift-Tests) erschienen sind. Sie nutzen die Spezifik des Computers bei Durchführung und Parametrierung meist voll aus bzw. sind nur mittels Computer durchführbar.

• Bearbeitete Computertests haben einen Papier-und-Bleistift-Test als Ausgangspunkt, sind mit der Papier-und-Bleistift-Form aber nur bedingt identisch. Es wurden wesentliche Veränderungen und Erweiterungen vorgenommen und computerspezifische Parameter eingeführt.

• Computerversionen von herkömmlichen Tests sind mit den Papier-und-Bleistift-Formen im Itemmaterial und dem prinzipiellen Ablauf identisch. Die Modifikationen sind geringer als bei der vorgenannten Kategorie, dennoch ist eine spezielle Normierung notwendig.

Einige Verfahren sind mit der Papier-und-Bleistift-Form prinzipiell identisch. Es handelt sich hier vor allem um Fragebögen. Die Kenntnis der Handbücher wird vorausgesetzt, und die

Page 16: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

16

Darstellung der Verfahren im Computer-Handbuch beschränkt sich auf ein Minimum bzw. auf spezifische Informationen für die Computerversion.

Alle Computertests bedürfen einer spezifischen Überprüfung der Gütekriterien und Normierung, bevor sie in der Einzelfalldiagnostik eingesetzt werden können (Kubinger, 1991; Lamberti, 1991; Schwenkmezger & Hank, 1992). Der aktuelle Stand wird bei jedem einzelnen Verfahren mit angegeben.

Für Fragebogen muss der Bezug auf prototypische Untersuchungen mit der Verfahrensklasse oder die Überprüfung an einer kleineren Stichprobe in einigen Fällen für heute genügen - nicht zuletzt durch die leichte Nutzbarkeit von vorhandenen Daten wird sich dieser Zustand bessern. Die Entwicklung von Computertests ist nur bedingt vergleichbar mit der von Papier-und-Bleistift-Tests. Begrenzend wirkt sich vor allem die „Einmaligkeit“ der Technik aus. Am Ende gelten jedoch die gleichen Gütekriterien wie bisher - nur der Weg dahin ist etwas anders. Wir wählten ein Vorgehen, das im Sinne einer „gleitenden Projektierung“ von Tests zu verstehen ist.

Obwohl die aufgenommenen Verfahren einen unterschiedlichen Neuheitsgrad aufweisen, führt eine pauschale Gegenüberstellung von alten und neuen Tests nicht weiter, da auch traditionelle, seit langem angewandte Tests moderne Prinzipien verwirklichen können. Mancher Vertreter einer „grundsätzlich neuen“ Diagnostik ist den Utilitätsbeweis unseres Erachtens bisher schuldig geblieben. Eine „Dynamisierung“ des Testens mit herkömmlichen Testprinzipien, die genauere Ereignisregistrierung, führt auch hier in der Regel zu neuen Qualitäten.

Folgende Entwicklungsetappen für Computerverfahren werden in Anlehnung an die bekannten Etappen der Testentwicklung (vgl. z.B. Sprung & Sprung, 1984) unterschieden:

1. Testplanung: Konzeptentwicklung auf der Grundlage theoretischer Erwägungen, experimenteller Befunde oder von Testergebnissen, Übernahme von bewährten Testkonzepten. Dieser Schritt beinhaltet im wesentlichen alle methodischen Vorüberlegungen. Wichtige Fragen ergeben sich daraus, wie der Computer spezifisch zur genauen Abbildung von Verläufen (einer der wichtigsten Unterschiede zur Papier-und-Bleistift-Form) eingesetzt werden kann. Daraus leiten sich beispielsweise ab:

• der Ablaufplan des Programms;

• die Materialentwicklung (insbesondere unter Einschluss systematischer Bedingungsvariation);

• die Parameterwahl und der angestrebte Auflösungsgrad der Registrierung;

• adaptive Elemente, wie z. B. Fehlertoleranz, Abbruchkriterien, Kontrollmöglichkeiten.

2. Prototyp: Entwicklung als Überprüfung einer ersten Version bei verschiedenen Personengruppen hinsichtlich der Parameter-Hypothesen. Eine Umprogrammierung ist nach Analyse von Probandengruppen (n = 5 bis 10) möglich. Gegebenenfalls muss auch dieser Schritt mehrfach wiederholt werden.

3. Entwicklungsversion: Überprüfung eines fertigen Programms in echten diagnostischen Untersuchungssituationen, Berechnung von Gütekriterien. Die Programme werden in Untersuchungen mit geeichten Tests eingebunden - in der Regel auch fragestellungsbezogen. Bisher ist ein Minimum von 100 Normalpersonen definiert, ehe eine Auswertung erfolgt. Diese Zahl wäre nach unserer Erfahrung bei ca. 300 optimal.

4. Anwendungsversion: Anwendung des Programms unter Verwendung der Normen, beständige Weiterentwicklung anhand der gewonnenen Ergebnisse. Dabei werden Normen in verschiedener Differenziertheit angeboten, die sich aus einer fortlaufenden Auffüllung der

Page 17: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

17

Datenbank ergeben. Über die Gesunden-Normen für die orthonorme Betrachtung hinaus werden patientenspezifische Kriterien zur pathonormen Interpretation gewonnen.

Alle Tests unterliegen so der ständigen Weiterentwicklung, die prinzipiell bis zur Phase 1 zurückgehen kann. Die Tests einer ausgelieferten Version befinden sich auf unterschiedlichem Entwicklungsniveau - bewährte und neue Verfahren sind gemischt. Durch gemeinsame Durchführung wird ein Kompromiss zwischen sachgerechter Beantwortung der Fragestellung und Weiterentwicklung des Systems angestrebt.

Das Angebot an andere Autoren zur Mitarbeit wird zukünftig eine noch grössere Bedeutung erlangen und sich in diesem Prozess weiter ausdifferenzieren. Bereits jetzt liegen damit gute Erfahrungen vor. Schwerpunkte sind gezielte Verfahrensentwicklungen für Gebiete und Fragestellungen, für die Instrumente zum gegenwärtigen Zeitpunkt fehlen. Diese Zusammenarbeit wird mindestens auf 2 Stufen möglich sein: als direkte Zusammenarbeit bei der Verfahrensentwicklung und durch Einbindung autonom arbeitender Programme.

2.4 Normen

Grundsätzlich sind alle am Computer durchzuführenden Verfahren auch für diese spezielle Durchführung zu normieren. Bei allen zeitkritischen Tests (vor allem im Aufmerksamkeitsbereich) spielt, wie noch zu zeigen sein wird, auch das gewählte Eingabemedium (Tastatur, Maus u.a.) eine Rolle. Im HTS sind deshalb diese Tests speziell für den Computer normiert.

Für die Entwicklung der Verfahren wird das Poolkonzept angewandt: Primärdaten aller untersuchten Personen werden in einer Datenbank gesammelt, Auswertungen und Normierungen unter Beachtung spezieller Schichtungskriterien (Alter, Geschlecht, Bildungsgrad, Diagnose/Fragestellung) für Teilpopulationen berechnet. Im Unterschied zu Papier-und-Bleistift-Verfahren ist die Gewinnung ausreichend grosser Stichproben mühsam und an die Verfügbarkeit der Technik gebunden. Deshalb können hier nur langfristig die von Papier-und-Bleistift-Tests her gewohnten methodischen Kriterien erfüllt werden. Hier setzen wir auch auf einen Datenrücklauf durch die Anwender (s.u.).

Die Normen werden automatisch alters-, geschlechts- und bildungsgradspezifisch je nach Vorgabe des Tests berechnet.

Alle Normen beziehen sich auf die wie im Original gepolten Skalen. Die Skalenbezeichnungen bei Parametern sind so gewählt, dass sie für hohe Normwerte typisch sind.

Für einige Fragebögen werden mehrere Normen in der Computer-Auswertung für die verschiedenen Referenzpopulationen (z.B. Gesunde und eine Patientengruppe) dargestellt, so dass differenzierte Entscheidungen möglich sind. Bei den Normen handelt es sich überwiegend um Centil-Normen mit einem Mittelwert von 5 und einer Standardabweichung von 2.

Die Norm C-TRF wird dort angewandt, wo lediglich Mittelwert (m) und Standardabweichung (s) für die entsprechende Referenzpopulation vorliegen. Ein Punktwert wird transformiert:

C-TRF = 50 + 20 (Punktwert - m) / s

Diese Norm hat den Vorteil, dass ihre Zehnerstelle - wie von der C-Norm gewohnt - interpretiert werden kann und eine näherungsweise Einordnung des Punktwertes in die

Page 18: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

18

Verteilung der Normierungspopulation möglich ist. Der Fehler ist allerdings bei nicht normalverteilten Merkmalen besonders gross. Bei extremem Antwortverhalten können die C-TRF-Werte auch negativ werden bzw. über 100 liegen, da sie nicht auf den „üblichen“ Bereich von 0 bis 100 beschnitten werden. Dabei handelt es sich aber um Ausreisser, die über 2,5 Standardabweichungen vom Mittelwert entfernt sind.

Tabelle 1: C-NORMEN - Prozentränge und Äquivalenztabelle T-Norm.

C-TRF 0 10 20 30 40 50 60 70 80 90 100

C 0 1 2 3 4 5 6 7 8 9 10

A 0,6 2,3 6,7 15,9 30,9 50 69,1 84,1 93,3 97,7 99,3

B 1,2 4,0 10,6 22,7 40,1 59,9 77,3 89,4 96,0 98,8

T 25 30 35 40 45 50 55 60 65 70 75

a: Prozentrangwerte der C-Werte (Mitte)

b: Prozentrangwerte der Grenzen zwischen den C-Werten

T: Äquivalente T-Norm für die C-Wert-Klassen

C-TRF: m = 50; s = 20 C: m = 5; s = 2 T: m = 50; s = 10

Bei einigen Entwicklungsversionen oder für bestimmte Teilskalen stehen gegenwärtig noch keine Kennwerte zur Verfügung. Die Verfahren wurden aufgenommen, da sie sich in bestimmten Bereichen dennoch durchgesetzt zu haben scheinen. In diesen Fällen ist ein Forschungsbedarf natürlich dringlich, und wir möchten nicht zuletzt durch die Aufnahme erreichen, dass auch für diese Verfahren Daten aggregiert werden. Um die Punktwerte eines Patienten in diesen Verfahren zu veranschaulichen, werden sie auf die theoretische Rohwertskala bezogen (der niedrigste mögliche Punktwert einer Skala entspricht 0%, der höchste 100%) und in Prozent der Rohwertskala angegeben. Da es sich dabei ausschliesslich um Beschwerden- bzw. Symptomskalen handelt, ist der Prozentwert dann ein Massstab für die Skalenerhöhung. Keinesfalls sind bei dieser „Norm“ mittlere Werte für eine Population typisch! Eine populationsbezogene Bewertung ist auf dieser Basis nicht möglich, da die Normalwerte in ganz verschiedenen Bereichen der theoretischen Skala liegen können (z.B. bei psychotischen Symptomen eher nahe 0%, in einer Skala für Befindlichkeitsstörungen manchmal nahe 50%).

Bei der Bewertung von Testergebnissen sind eine orthonorme und eine pathonorme Betrachtung zu unterscheiden. Orthonorm erfolgt eine Einordnung in die zugehörige Schicht der Normalpopulation, die Ergebnisse werden nach der Abweichung vom Mittelwert bewertet. Insbesondere bei den Neuentwicklungen haben wir uns fast ausschliesslich auf die Centil-Norm (C-Norm, Mittelwert 5, Standardabweichung 2) festgelegt; auffällige Ausprägungen entsprechen geringen Werten. Daraus kann abgeschätzt werden, ob eine bestimmte Leistung der Erwartung entspricht oder nicht.

Niedrige Normwerte bedeuten aber nicht automatisch, dass eine pathologisch relevante Störung bzw. eine Einschränkung der Leistungsfähigkeit vorliegt. Hierzu muss eine pathonorme Bewertung vorgenommen werden. Geprüft werden muss, ob ein bestimmter Wert

Page 19: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

19

typisch für eine bestimmte Patienten- oder Störungsgruppe ist. Dazu sind vor allem im Handbuch - zunehmend auch in der automatischen Befundung - Hinweise vorhanden, die sich auf Untersuchungen bestimmter Patientengruppen beziehen. Pathonorme Bewertungen ergeben sich auch aus dem Vergleich verschiedener Leistungen.

Bei bestimmten Tests - soweit sie nicht hinreichend normiert sind - werden für einzelne Parameter die Mittelwerte und Standardabweichungen für Gesunde mitgeteilt.

In der nachfolgenden Tabelle sind die untersuchten Stichproben der bisher durchgeführten Untersuchungen aufgeführt. In den einzelnen Erhebungen wurden jeweils ausgewählte Verfahren verwendet. Einzelne Berechnungen beruhen deshalb auf Teilstichproben. Deshalb sind die tatsächlichen Stichprobengrössen bei den einzelnen Verfahren angegeben.3

Im folgenden werden die Abkürzungen (z.B. SP 3 für Stichprobe 3) zur Charakterisierung der untersuchten Stichprobe verwandt.

3 Zukünftig wird sich der Normierungsstatus deutlich erweitern, weil dann die Aufbereitung der zahlreichen bereits jetzt vorliegenden Daten beendet ist.

Page 20: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

20

Tabelle 2: Untersuchte Stichproben der bisher durchgeführten Untersuchungen.

SP AUTOREN Gesunde Patienten mit Leistungs-störungen

Schizophrene Alkoholiker

1 Hoffmann (1989) 156 131

2 Rosenfeldt (1990), Ohlrich (1989)

66 (2fach) 72 (3fach) 36

3 Hänsgen: Erhebung 1991 57 91

4 Hoffmann und Meissner: Erhebung 1991

25 20

5 Taeger (1991) 101

6 Patan (1990) 64

7 Bitterlich: Erhebung 1991 40

8 Vesper und Hänsgen: Erhebung 1991

20 (3fach)

9 Vesper und Hänsgen: Erhebung 1992

87 (3fach)

10 Fenske (1992) 60

11 Bitterlich und Strauss: Erhebung 1992

74

12 Klauke: Erhebung 1992 31

13 Jatzlau und Schreiber: Erhebung 1992

30

14 Kött: Erhebung 1992 30

15 Richter: Erhebung 1992 44

16 Klesse, Sandmann und Rosenfeldt: Erhebung 1994

60

17 Rosenfeldt: Erhebung 1993/94 30

E1 Tassera 1999

(Novartis AG Basel) Lehrlingsauswahl Positionen: Laboranten Biologie, Laboranten Chemie, Kaufmännische Berufe, Informatik und Elektronik

Alter: 15 - 26 Jahre (Mittel: 17 Jahre)

D2-C Mausversion (n=383; 273 m, 110 w)

MTVT (n=140; 131 m, 9 w)

WMT (n=205, 146 m, 59 w)

Page 21: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

21

2.5 Weiterentwicklung von Tests

2.5.1 Konventionelle oder computerspezifische Tests?

Eine der meistdiskutierten Fragen ist die nach dem Verhältnis konventioneller Papier-Bleistift-Tests und neuer, nur am Computer durchführbarer Verfahren. Es wurden zahlreiche Äquivalenzstudien durchgeführt (Übersicht z.B. Franke, 1997). Nicht selten wird die Umsetzung konventioneller Tests am Computer als weniger notwendig oder sogar als problematisch angesehen.

Es besteht Einigkeit, dass eine unkritische Übertragung und die ungeprüfte Verwendung von Normen der konventionellen Tests auch für die Computerversion nicht sinnvoll ist. Dass konventionelle Tests überhaupt für den Computer umgesetzt werden, erkennt die genannten Erwartungen hinsichtlich ökonomischer Vorteile der computerbasierten Diagnostik als vollwertiges Argument an. Ausserdem sind darunter sehr gut entwickelte und überprüfte Konzepte, die auch in einer Computerform für multimodale Diagnostikkonzepte benötigt werden.

Schliesslich sind in der Computerfassung zumeist auch neue Parameter enthalten, und somit ist eine präzisere Ereignisregistrierung möglich, die sogar zu einem Validitätsgewinn durch die Computerisierung eines „herkömmlichen“ Tests beitragen kann.

Zwei Fragen sind bei Übertragungen von Tests zu beantworten:

• Ist der Validitätsbereich des computerbasierten Tests noch der gleiche wie der des herkömmlichen Tests? Die Validität kann besser, schlechter - oder auch eine ganz andere sein. Man sollte nicht nur die Korrelationen zwischen beiden methodischen Varianten eines Tests betrachten - entscheidend wäre ein Vergleich der „diagnostischen Validität“, etwa der Prognosegüte. Solche Studien sind offenbar extrem selten - bei Recherchen zu diesem Beitrag haben wir keine einzige gefunden.

• Sind die Normen neu zu erheben oder können diejenigen des konventionellen Tests verwendet werden? Ist eine Äquivalenz per Korrelation in ausreichender Höhe nachgewiesen, können sich die Normen dennoch graduell unterscheiden. Es können andere Alters- und Geschlechtsabhängigkeiten auftreten oder Verteilungsunterschiede vorhanden sein. Neunormierung, Normkorrektur aufgrund einer Vergleichsstudie (im deutschen Sprachraum weniger geläufig) oder die Weiterverwendbarkeit der konventionellen Normen wären mögliche Schlussfolgerungen.

Die generelle Forderung des Testkuratoriums aus dem Jahre 1986, alle Verfahren bei Computerformen neu zu normieren, steht weiter im Raum. Bei einer Neufassung entsprechender Richtlinien wäre es sinnvoll, eine Differenzierung aufgrund der jetzt vorliegenden Forschungsergebnisse und Erfahrungen vorzunehmen:

Für fragebogenartige Verfahren (allgemein Niveautests ohne Zeitbegrenzung) ist die Situation aus heutiger Sicht eine andere. Es liegen zwar in der Literatur zahlreiche Befunde sowohl für Gleichheit als auch für Unterschiede bezüglich der Normen vor. Betrachtet man aber die Literatur zu Normvergleichen in einer Zeitachse, zeichnet sich der Trend ab: „Jüngere“ Vergleiche konstatieren eher eine Gleichheit der Normen, während ältere eher Unterschiede feststellten. G.H. Franke (1997, 1998) hat die Gleichheit selbst in einigen Studien mit dem Freiburger Persönlichkeitsinventar FPI-R und der Symptom Checklist SCL-90 feststellen können und zugleich eine sehr umfangreiche Literaturanalyse vorgenommen,

Page 22: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

22

die eine Zeitabhängigkeit deutlich belegt. Zu gleichen Ergebnissen kommt Merten (1999), der in Äquivalenzstudien mit dem Eysenck-Personality Questionaire Revised (EPQ-R) und der Carroll Rating Scale for Depression (CRS-D)4 keinen Einfluss des Darbietungsmodus auf Skalenmittelwerte und Standardabweichungen und keine systematischen Konsistenzunterschiede fand (Merten & Ruch, 1996). Aus der Interpretation der hierzu häufig diskutierten Befunde von Schwenkmezger und Hank (1993), die Unterschiede in Zustandsskalen zwischen Computer- und Papier-Bleistift-Test (Angst, Ärger) fanden, wird ein Verdacht erhärtet, den wir für viele ältere Untersuchungen vermuten: Die ergonomische Gestaltung der Fragebogen am Computer kann als eine mögliche Ursache für das Auftreten der Unterschiede gelten.5 Unterstellt man, dass neuere Computertests ergonomischer und umgesetzt sind (Farbe, Grafik-Oberfläche, bessere Antworteingabemöglichkeiten), würde das ein wesentlicher Unterschied zu den früheren Programmen im Schwarz-Weiss-Textmodus sein. Diese Annahme wäre als vorläufige Arbeitshypothese für den Umgang mit diesen Tests auch aus einem anderen Grund hilfreich: die Gewinnung bevölkerungsrepräsentativer Stichproben ist mit Computer nicht so einfach wie bei der „eingeführten“ Technologie der Erhebung durch Befragungsinstitute, auf die zahlreiche Fragebogenentwickler zur Normierung zurückgreifen. Man stelle sich eine Person vor, die mit einem Notebook vor der Tür steht, klingelt und um Beantwortung von Fragen bittet. Ein „Einbestellen“ der repräsentativen Gruppe ist aus Kostengründen problematisch.

Nach strenger Auffassung gilt eine nachgewiesene Äquivalenz nur für die untersuchte Methode und die verwendete Hard- und Software. Schon über einen Bildschirm, der einige Zentimeter weiter entfernt steht, müsste man als Variationsquelle nachdenken - nicht zu reden von Performanzunterschieden der Prozessoren, Speicher und Betriebssysteme. Auch in der konventionellen Diagnostik könnte man allerdings über die Beschaffenheit des Ausfüllplatzes, die Art des verwendeten Stiftes, die Tisch- und Stuhlhöhe, die Beleuchtung als Varianzquelle nachdenken und vergleichbar illusorische Forderungen für Äquivalenznachweise aufstellen. Für die Zukunft wäre es hier sinnvoll, Äquivalenzstudien systematischer durchzuführen und sowohl Merkmalsgruppen als auch Gestaltungselemente der Programme systematisch zu variieren. Dadurch entstünden generalisierbare Befunde, die zur Bewertung von Programm- und Verfahrensklassen herangezogen werden können.

Bei Leistungstests ist die Situation differenzierter zu sehen. Wegen des meist veränderten Zeitverhaltens, der veränderten Präsentation (ein Item pro Bildschirm vs. Listenform bei Papier-Bleistift-Verfahren) sind Abweichungen viel wahrscheinlicher. Deshalb empfiehlt es sich, in jedem Falle Äquivalenzstudien durchzuführen. Als Beispiel sei eine Untersuchung von Fenske (1992) dargestellt, die eine Vergleichsstudie mit verschiedenen Intelligenzverfahren durchführte, die konventionell und mittels Computer durchgeführt wurden. Verwendet wurden die folgenden Verfahren des Hogrefe TestSystems: Die Untertests LPS-1/2, LPS-3, LPS-4 des Leistungsprüfsystems von Horn, der Mehrfachwahl-Wortschatztest von Lehrl und ZGR Zahlengedächtnis mit Rückwärtsreproduktion. Für die ersten vier Methoden stehen in beiden Durchführungsmodi je zwei Parallelformen zur Verfügung. Nach einem randomisierten Versuchsplan wurde jeweils eine Form konventionell und die andere mittels Computer erhoben. 60 Gesunde wurden untersucht.

4 Hier wurde das Hogrefe TestSystem verwendet, die Ergebnisse gelten daher für das hier benutzte methodische Setting. 5 Schwenkmezger und Hank verwendeten einen Pocket-Computer mit sehr kleiner Tastatur und LCD-Bildschirmanzeige.

Page 23: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

23

Tabelle 3: Zusammensetzung der untersuchten Stichprobe.

Gesamt Geschlecht Alter Hochschulabschluss

N Männlich Weiblich 18-29 30-39 ab 40 ohne Mit

Normalpersonen 60 27 33 21 21 18 48 12

Tabelle 4: Korrelation der Testergebnisse konventionell vs. computergestützt.

Verfahren Korrelation

LPS-1/2 0,87

LPS-3 0,76

LPS-4 0,82

MWT 0,84

Die Korrelationen weisen die Höhe von Paralleltests auf, so dass beide Durchführungsmodi als äquivalent angesehen werden können. Die Tabelle 5 zeigt die Mittelwerte und Standardabweichungen, zusammengefasst für die Formen A und B. Tabelle 5: Mittelwerte und Standardabweichungen in den beiden Durchführungsmodi.

Mittelwert Standardabweichung

Computerform Papier-und-Bleistift-Form

t-Test Computerform Papier-und-Bleistift-Form

LPS-1/2 45,08 47,03 3,97 (sign.) 11,02 13,17

LPS-3 27,38 28,02 0,92 (n.s.) 5,98 5,72

LPS-4 27,82 27,70 0,26 (n.s.) 4,82 4,36

MWT 26,20 26,82 1,01 (n.s.) 5,12 4,72

Lediglich für LPS-1/2 ergibt sich ein signifikanter Mittelwertsunterschied: am Computer werden im Durchschnitt zwei Aufgaben weniger richtig beantwortet. In der Tabelle 4 werden die Interkorrelationen der einzelnen Tests dargestellt. Dabei zeigen die Hervorhebungen an, dass LPS-1/2 und MWT bzw. LPS-3 und LPS-4 jeweils Merkmale des gleichen Validitätsbereiches messen.

Page 24: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

24

Tabelle 6: Interkorrelationen im Vergleich der Durchführungsmodi.

Verfahren LPS-1/2 LPS-3 LPS-4 MWT ZGR

LPS-1/2 - 0,43 0,49 0,72 0,28

LPS-3 0,38 - 0,76 0,15 0,55

LPS-4 0,31 0,73 - 0,27 0,59

MWT 0,77 0,27 0,17 - 0,15

ZGR 0,28 0,38 0,38 0,18 -

Anmerkungen. Über der Diagonalen: Computertests. Unter der Diagonalen: Papier-und-Bleistift-Tests. Hervorhebungen: Konkordante Validität.

Beide Korrelationsmuster sind sehr ähnlich. Beim Computertest korreliert die Leistung im Zahlengedächtnis (Rückwärtsreproduktion) erwartungsgemäss höher mit der logisch-abstrakten Intelligenz. Zusammenfassend kann festgestellt werden, dass die Computerverfahren den Papier-und-Bleistift-Verfahren hier äquivalent sind. Eine Neunormierung war vor allem für die Computerversion des LPS-1/2 notwendig.

Die Lösung des Normproblems ist vor allem mittel- und langfristig möglich, indem sich durch die Computernutzung und Vernetzung Daten fragestellungsspezifisch ansammeln, die sich retrospektiv nicht nur für die Normierung, sondern auch die bessere Fundierung diagnostischer Entscheidungskriterien eignen. Dabei sollte keine laufende Veränderung von Normen erfolgen, wie sie durch Konzepte der „gleitenden Normierung“ oder einer „universellen Normdatenbank“ impliziert werden. Diagnostiker bilden mit der Zeit Erfahrungswerte für die Interpretation von Testergebnissen aus, die mindestens genauso wertvoll wie eine Normierung sind. Wenn sich nun die Normbasis laufend ändert, ist diese „Ankerwertbildung“ zumindest erschwert, wenn nicht sogar unmöglich. Deshalb sollten Normgenerationen gebildet werden: Ist für ein Verfahren eine Norm für Gesunde publiziert, werden alle weiterhin eingehenden Daten solange gesammelt, bis eine neue repräsentative Stichprobe zusammengekommen ist. Diese wird dann als zusätzliche Norm publiziert.

2.5.2 Neue Eingabe- und Interaktionsmedien

Die Antworteingabe der Testpersonen ist noch eine der „Achillesfersen“ computerbasierter Psychodiagnostik. Ursprünglich nutzte man die Tastatur als Eingabemedium. Da diese vor allem bei Speed-Tests die Orientierung allein durch die Tastenzahl erschwerte und die Routine im Umgang mit „Schreibmaschinentastaturen“ die Leistung beeinflusst, ging man zu speziellen "reduzierten" Tastaturen über, wo beispielsweise nur die Zahlentasten und einige wenige Reaktionstasten enthalten waren. Es wurden auch Abdeckschablonen für die normalen Computertastaturen verwendet, welche nur die notwendigen Tasten sichtbar machen. Der generelle Nachteil von Tastaturen besteht darin, dass die Zeiten der Antworteingabe schon dadurch variieren, dass einige Personen die Tasten „blind“ bedienen (und sich ständig am Bildschirm orientieren) und andere mehr oder weniger häufig die Aufmerksamkeit zwischen Bildschirm und Tastatur teilen (müssen). Dies kann nur bedingt durch vorgeschaltetes Training und Bestimmung einer „Basis-Reaktionszeit“ als Moderatorvariable ausgeglichen werden.

Page 25: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

25

Eine „Computermaus“ hat den Vorteil, dass die visuelle Orientierung ständig auf den Bildschirm fokussiert bleiben kann. Allerdings wird eine „unübliche“ sensumotorische Koordinationsleistung verlangt, die vor allem ungeübte Computernutzer benachteiligen kann. Hergovich (1994) konnte zwar zeigen, dass es beim Linienzeichnen keine signifikanten Niveauunterschiede zwischen Personen mit und ohne „Mauserfahrung“ gibt, die Bedenken bleiben aber im Hinblick auf Personen mit Störungen in diesem Bereich und ältere Personen.

In jedem Fall ist allerdings davon auszugehen, dass das Eingabemedium einen wesentlichen Einfluss auf die Normen hat. Murer (1996) konnte zeigen, dass eine Tastatur- und eine Mausversion eines computerisierten Konzentrationstests (d2 von Brickenkamp, Merten & Hänsgen, 1997 im Hogrefe TestSystem) unterschiedliche Mengen- und Sorgfaltsleistungen erbringen (s. Abb. 1). Es zeigt sich, dass die Mengenleistung der Tastaturversion (Zeichen/Minute) am geringsten ist, mittels Mauseingabe mehr Zeichen bearbeitet werden. Beide Leistungen liegen signifikant unter derjenigen der Standardform, die eine „geübte“ Schreibanforderung darstellt. Am Computer werden insgesamt weniger Fehler gemacht. Die visuelle Kontrolle bei Mauseingabe mindert die Fehlerrate offenbar am meisten. Die beiden Computerformen sind also in jedem Falle gesondert zu normieren.

Hoffnungen wurden in andere Eingabemedien wie „Track ball“ und „Joystick“ gelegt, die ihrerseits aber das Problem der sensumotorischen Koordination nicht lösen.

Leistung/Minute

0

10

20

30

40

50

60

70

80

90

100

Papier-Bleistift Computer-Maus Computer-Tastatur

Zeic

hen

Fehler/Minute

0

0.5

1

1.5

2

2.5

3

3.5

Papier-Bleistift Computer-Maus Computer-Tastatur

Fehl

er

Gesamt Auslassung falschpositiv

Abbildung 2: Mengen- und Sorgfaltsleistung des d2-Konzentrationstests (Standardform Papier-Bleistift, Computerform Tastatur- und Mauseingabe) im Vergleich (Murer, 1996).

Gegenwärtig scheinen „Lichtgriffel“ (der spezielle Hardware erfordert) und „Touchscreen“ (Antworteingabe mit dem Finger am Bildschirm; es wird der „normale“ Maustreiber verwendet) die beiden Eingabemedien zu sein, die bezüglich der Koordinierungsanforderungen am „natürlichsten“ sind: die Orientierung bleibt immer am Bildschirm und die motorische Bewegung erfolgt direkt unter Kontrolle der Wahrnehmung.

In nächster Zeit wird die direkte Spracheingabe mehr Bedeutung erlangen. Für einfache Reaktions- und Diskriminationsaufgaben ist das heutige technische Niveau bereits ausreichend (wenn etwa eine geringe Auswahl vorher bekannter Antwortalternativen erforderlich ist).

Page 26: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

26

2.5.3 Verbesserte Gestaltung von Tests

Es werden Vorteile vom Computer bei der Testdurchführung erwartet. Zu nennen sind eine laufende Prüfung des Instruktionsverständnisses, Erkennen und separate Behandlung von Ausreisserwerten oder Warnung bzw. Abbruch bei starker Überforderung. Bei Speed-Tests ergibt sich die Möglichkeit, das Test-Ende nicht vorher erkennbar zu machen und so Frustrationen über die verbleibende Menge nicht gelöster Aufgaben zu vermeiden (in der „Abbaudiagnostik“ ein sehr ernstzunehmendes Problem). Es lassen sich Mischstrategien zwischen Speed- und Powertests realisieren, indem die Lösungen in einer fest vorgegebenen Zeit zwar protokolliert werden, der Proband im Sinne von „testing the limits“ aber weiter die Aufgaben bis zum Ende bearbeiten kann - ohne den Schnitt zu bemerken.

Abbildung 3: „Altes“ Fragebogenlayout am Beispiel eines Items des Neo-FFI: Grosse Buttons sind für Touchscreen-Nutzung optimiert. In dem Fall wurde zu schnell geantwortet und es wird „nachinstruiert“. Die Navigation ist sehr einfach gehalten.

Auch bei der Fragebogenerhebung erschliessen sich durch den Computer neue Möglichkeiten. Eine Antwortzeitkontrolle (Hinweise bei zu schneller Beantwortung unter einer minimalen Lesezeit oder bei zu langsamer Beantwortung), Nachinstruktion bei fehlenden Antworten, Antworttendenz- und Perseverationsanalyse und die zeitspezifische Auswertung (z.B. sehr niedriger Angstwert bei extrem langer Antwortzeit im Verhältnis zu anderen Bereichen) sind zu nennen.

Besonders problematisch für die zukünftige Entwicklung computerbasierter Tests wäre es, wenn zu viele verschiedene Navigationsprinzipien bei Tests zum Einsatz kämen und bei der gleichzeitigen Anwendung mehrerer Verfahren bei einer Person entsprechende Interaktionen die Antworten beeinflussen würden. Auch hier sollte die Grundlagenforschung verschiedene

Page 27: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

27

Navigationsprinzipien aus ergonomischer Sicht evaluieren und so die notwendige Vielfalt auf einige wenige Varianten beschränkbar machen.

Es ist natürlich auch eine Kostenfrage, entsprechende individuelle Programmlösungen zu verwenden. Ist einmal ein Standard erstellt, können entsprechende Programmbausteine dann sicherlich auch zu günstigen Bedingungen angeboten werden.

Vor allem die Anwendung von psychodiagnostik-unspezifischen Tools, die für ganz andere Zwecke entwickelt worden sind (z.B. Eingabe im Internet), sollte sehr kritisch betrachtet werden. Ungeübte sind dadurch schnell überfordert.

Das Bild zeigt eine verbesserte Navigation am Beispiel eines Untertests des IST- 2000. Die einzelnen Items und die

Bearbeitungsposition werden angezeigt, darunter befindet sich eine für alle Tests standardisierte Navigationsleiste: Zentral wird der jeweils erforderliche Schritt angezeigt (was in vielen Programmen fehlt). Eine Verbesserung ist bei der Navigation (der Bedien-schritte bei der Test-beantwortung) notwendig. Hier gibt es sehr viele verschiedene Formen der Antworteingabe, die er-gonomisch unterschiedlich sind. Auf den unteren Positionen befinden sich Funktionen, die bei diesem Test nicht benötigt werden – jedoch immer an der gleichen Position liegen (Hilfe, Test beenden u.a). Im unteren Beispiel wurde eine Antwort eingegeben und Abbildung 4: „Neue“ Navigation im Hogrefe TestSystem, vereinheitlicht für die verschiedenen Test-Verfahren.

markiert. Man kann jetzt "Bestätigen oder Korrigieren" oder die Antwort löschen und neu eingeben. Alle zu diesem Zeitpunkt nicht möglichen Funktionen sind nicht sichtbar, es kann nur Item 6 zu diesem Zeitpunkt bearbeitet werden. Es gelingt den Personen schneller als beim alten Layout, die Bedienung des Programms zu verstehen.

Gebräuchliche Navigationen sind:

Page 28: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

28

- Eine einfache Eingabe ohne Bestätigung - bei Fehlern ist entweder keine Korrektur möglich (bis auf „gewollte“ Ausnahmen sollten solche Programme der Vergangenheit angehören) oder es kann durch ein Zurückblättern korrigiert werden;

- eine einfache Eingabe und die Bestätigung mit ENTER oder einem Mausklick - hier werden die zusätzlichen „Wege“ mit der Maus oder Handbewegungen zur ENTER-Taste schnell als störend empfunden;

- eine Eingabe mit notwendiger Bestätigung (gleiche Antwort noch einmal geben) oder einer sofortigen Korrekturmöglichkeit (alternative Antwort eingeben). Hier besteht die Gefahr des „routinierten“ Doppeleingebens ohne Kontrolle - dies sollte zusätzlich durch eine Möglichkeit des Zurückblätterns abgefangen werden. In jedem Falle sollte die eingegebene Antwort visuell angezeigt werden, um einfache Eingabefehler möglichst auszuschliessen.

2.5.4 Neue Parameter und Messmodelle

Am Computer ist es möglich, die einzelnen Reaktionen wesentlich genauer zu erfassen und auch die intraindividuelle Variation mit auszuwerten. In einem modifizierten Symbol-Zahlen-Test sind neun Zeichen den entsprechenden Zifferntasten zugeordnet. So schnell als möglich sind die entsprechenden Tasten zu drücken, wenn ein Zeichen im unteren Display erscheint. Die Zeichen 2, 4 und 6 werden dreimal häufiger gezeigt als die übrigen Zeichen. Bei gleicher absoluter Mengenleistung kann die Lernleistung zusätzlich differenzieren. Lerneffekte für unterschiedliche Darbietungshäufigkeiten sprechen für bessere Ausnutzung der Redundanz. In der nachfolgenden Abbildung 5 werden die Ergebnisse für „Lerner“ und „Nicht-Lerner“ gegenübergestellt. Während die Übungs- bzw. Erfahrungsabhängigkeit eine wesentliche Komponente der einfachen Reaktionsgeschwindigkeit ist, können solche intraindividuellen Differenzen eher Rückschlüsse auf qualitative Leistungsbesonderheiten zulassen.

Page 29: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

29

SZT Symbol-Zahlen-Lerntest Standard

m_häufig: Mittelwert für häufig gebotene Zeichen, m_selten: selten dargeboten

Lernwert = 100 - ( m_häufig / m_selten ) • 100

Hohe Normwerte: schnellere Reaktion bei häufiger dargebotenen als bei seltenerdargebotenen Zeichen, gute Lernfähigkeit; Niedrige Normwerte: keine Unterschiedebezüglich der Darbietungshäufigkeit, geringe Lernfähigkeit.

________________________________________________________________________

Mittelwerte der Reaktionszeiten zeichenspezifisch (in sec/100):

Zeichen: 2 4 6 1 3 5 7 8 9 Lernwert C-Norm

Serie 1: 169 179 144 218 271 260 218 254 169

+ - - - - + + - - - - - - - - - +

m_häufig = 164 m_selten = 244 33 % 6

Die unterschiedliche Darbietungshäufigkeit wird genutzt, häufiger dargeboteneZeichen werden schneller erkannt („Lerner“).

___________________________________________________________________________

Serie 2: 239 254 234 271 235 305 226 278 258

+ - - - - + + - - - - - - - - - +

m_häufig = 242 m_selten = 263 8 % 1

Alle Zeichen werden gleich schnell erkannt, die häufigere Darbietung bewirkt keinschnelleres Erkennen („Nicht-Lerner“).

Abbildung 5: Symbol-Zahlen-Test: Anforderung und Ergebnisse.

Page 30: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

30

2.6 Weiterentwicklung der Testsysteme

Die Anforderungen an computerbasierte Tests sind heute bereits sehr hoch und es ist wohl nicht besonders effektiv, wenn Testentwickler nach eigenen Standards neue Verfahren konzipieren. Dem widerspricht auch das Bedürfnis der Anwender, die für eine Fragestellung notwendigen Verfahren möglichst nach einheitlichen Standards durchzuführen und auch einheitlich die Ergebnisse abzuspeichern, auszuwerten usw. Niemand arbeitet sich gern in mehrere unterschiedliche Programme ein.

Testsysteme haben sich deshalb zur Aufgabe gestellt, eine Art diagnostisches „Betriebssystem“ zu sein, wo die jeweiligen Tests integriert werden können. Im Hogrefe TestSystem ist eine Schnittstelle so definiert, dass die Testautoren ihre Testprogramme selbst entwickeln und „pflegen“ können, dabei aber auf die Funktionen des Systems (Personendaten eingeben und verwalten, Testdaten speichern, Datenexport usw.) zurückgreifen können. Damit können sich die Testautoren auf die „eigentliche“ Testentwicklung konzentrieren.

2.6.1 „Prozedurale“ Weiterentwicklung

Die Testsysteme bieten immer mehr Hilfsfunktionen und Arbeitserleichterungen an, die für die diagnostische Entscheidungsfindung hilfreich sind. Dabei geht es um formalisierbare Elemente im Diagnoseprozess, die durch bestimmte Hilfsmöglichkeiten unterstützt werden.

Solche Hilfen beziehen sich auf den Abruf von Informationen (Wissen) und die Visualisierung der im Einzelfall vorliegenden Befunde. Eine Einbindung in weitere vorhandene Programme bzw. deren Verknüpfung (zur Planung und Verwaltung, Abrechnung, Textverarbeitung, Internet und Mailfunktionen) und damit das Entstehen von „Psychodiagnostik-Arbeitsplätzen“ wird ein weiterer zukünftiger Trend sein.

Page 31: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

31

Tabelle 7: Teiltätigkeiten im Diagnoseprozess, dazugehörige Einzelfunktionen und deren Realisierung durch den Computer.

Teiltätigkeiten im Di-agnoseprozess

Formalisierbare Einzelfunktionen Realisierung durch Pro-zeduren (Beispiele) mittels Computer

Problemanalyse Gewinnung von Vorinformation über den Diagnostikanden (Auftragssituation)

Abruf von Problemwissen (Definition von Problemklassen mit ihren Be-schreibungsmerkmalen)

Kontextabklärung (z.B. gesetzliche Grundlagen)

Gesetzesdatenbankmodul

Datenbank für soziale Richtlinien Diagnosestandards

Investigatorische Entscheidungen

Hypothesengenerierung zur Zuordnung des Diagnostikanden zu einer oder meh-reren Problemklassen

Informationsbedürfnis aus der Verbin-dung von Problemklasse und Personen-information ableiten (diagnostische Hypothese)

Diagnostische Methode anwenden (Me-thode, Abbildfunktion, indikative Funktion)

Testkataloge (alphabetisch, systematisch, nach Konstrukten, Fragestellungen...)

Allgemeine Empfehlungs- und Hilfedateien

Testdurchführungsmodule

Testauswertemodule

Befundgeneratoren

Terminale Entscheidungen

Diagnostische Datenverdichtung, -be-wertung und -gewichtung

Klassifikation (Klassenzuordnung)

Diagnostische Entscheidung auf der Ba-sis merkmals- oder klassenspezifisch repräsentierten Wissens

Klassifikationsalgorithmen für bestimmte Diagnose-gruppen

Verwaltung und Ab-rechnung

Terminplanung

Leistungsabrechnung

Daten-/Befundverwaltung

Abrechnungsinterface

Modul für statistische Be-rechnungen

2.6.2 Diagnoseprozess und „Objektorientierte Strukturierung“

Spätestens seit Shneiderman (1981) wird ein enges, multidisziplinäres Verhältnis von Programmentwicklung der Informatik und von Psychologie betont. Softwareentwürfe werden als „Anwendungsmodellierung“ aufgefasst. Konradt und Dzida (1995) stellen die Suche nach einem optimalen mentalen Modell, welches einen Gegenstandsbereich abbildet, in den Mittelpunkt der Programmentwicklung. Dies bekräftigt unser Herangehen an die

Page 32: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

32

Systementwicklung von der Strategie des Diagnostizierens her - gesucht wird letztlich ein mentales Modell dafür.

Mentale Modelle seien nun aber unvollständig und instabil, was die Bestimmung eines vollständigen und optimalen Modells erschwert. Es gibt nicht die Lösung, sondern eine Menge von Lösungen, die in Bezug auf ihren Zweck mehr oder weniger geeignet sind. Die Parallelität zur Begriffsbildung und der Notwendigkeit von Aspekten (s.o.) ist evident - es sind die gleichen Ursachen dafür verantwortlich.

Diagnostische Informationsverarbeitung setzt die Repräsentierbarkeit der zahlreichen und ganz verschiedenartigen diagnostischen Informationen in einem Modell bzw. Konzept (als Abbild) voraus. Dieses Konzept muss formalisierbar sein und dennoch der Verschiedenartigkeit von Problemklassen und Individualität Rechnung tragen können. In diesem Konzept muss die Abbildung von Merkmalen und die Verarbeitung dieser Informationen (Verdichtung, Bewertung, Gewichtung) gleichermassen möglich sein. Schliesslich muss dieses Konzept dynamisch sein („lernfähig“) und eine Erweiterbarkeit als Aggregation neuer Informationen zulassen. Dabei sind die in der Diagnosekritik-Diskussion gewonnenen Erkenntnisse zur Verantwortung des Diagnostikers zu berücksichtigen.

Eine Erweiterung von den bisher üblichen prozeduralen bzw. funktionalen Konzepten stellt der Begriff der Objektorientiertheit in der Informatik dar. Dessen Wurzeln reichen bis in die 60er Jahre zurück, erst ab Mitte der 80er Jahre fand der objektorientierte Ansatz breitere Beachtung (Neumann, 1995). Neumann prognostizierte, dass ab etwa 1997 dieser Ansatz die Softwareentwicklung dominieren wird, was zugleich aus der „Sackgasse der herkömmlichen strukturierten Softwareentwicklung“ herausführen kann. Diese Prognose scheint eingetreten zu sein.

In Objekten sind Daten (das diagnostische wären hier Informationen als Merkmale oder Wissensbestände) und Prozeduren bzw. Funktionen (hier als Methoden der diagnostischen Informationsgewinnung, z.B. Tests und logische Schlussprozesse) miteinander verknüpft. Bestimmend sind die Informationen (hier das diagnostische Abbild). Meyer (1990) drückt dies so aus, dass zuerst gefragt wird, woran ein System etwas tut - erst in zweiter Linie was das System tut. Operationen mit Daten sind direkt mit den entsprechenden Methoden verknüpft. Die Methoden existieren damit nicht unabhängig vom Datenkontext (dazu z.B. Piepenburg & Züllighoven, 1995).

Objektorientiertes Herangehen bedeutet für die Diagnostik, dass Merkmale und Methoden ihrer Erfassung verknüpft sind. Die diagnostische Hypothese über ein Merkmal generiert „automatisch“ Methodenvorschläge zur Erfassung dieses Merkmales.6 Die Methodenauswahl (als investigative Entscheidungshilfe beispielsweise zur Testauswahl) würde den „Operationen“ im diagnostischen Abbild untergeordnet (und nicht umgekehrt: erst Testen und dann nach der Bedeutung der Resultate Suchen). Das ist zwar keine neue Forderung (es ist hypothesengeleitetes Diagnostizieren) - aus der direkten Verknüpfung ergeben sich aber Konsequenzen für die Verfahren.

Der Computer wäre vor allem geeignet, einen Ordnungsrahmen für Problemklassen vorzugeben und den Prozess der Auswahl der Problemklasse „hierarchisch“ zuzulassen. Die Problemklasse enthält dann die möglichen Merkmalszusammenhänge als Freiheitsgrade. Während des Diagnoseprozesses werden diese Freiheitsgrade durch diagnostische Informationen „aufgelöst“ und die entsprechenden Wissensbestände werden für das jeweilige Individuum gültig. 6 Diese Verbindung kann „bedingt“ sein, indem die Auswahl einer konkreten Methode aus einem Set von Methoden von bestimmten Ausgangsmerkmalen abhängig ist.

Page 33: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

33

2.6.3 Vernetzung: Internet und Diagnostik

Der Trend zur Vernetzung von Computern erschliesst auch für die Psychodiagnostik neue Möglichkeiten. Dabei ist nicht nur an das Internet zu denken – die Vernetzung von Computer-Arbeitsplätzen innerhalb von Einrichtungen, die man auch als „Intranet“ bezeichnet, ist aktuell sogar bedeutender. Die Verbindung zwischen beiden ist vor allem aus datenschutzrechtlichen Gründen zu diskutieren: Verbindung nach aussen birgt offenbar immer ein Risiko, dass interne Daten „ausspioniert“ werden können. Werden solche Möglichkeiten entdeckt, folgen seitens der Programmentwickler zwar Updates, die das verhindern sollen – es kann allerdings schon zu spät sein.

Bereits heute sind Bedürfnisse hinsichtlich Netzwerknutzung schon sehr verbreitet: Diagnostische „Labore“ verfügen über mehrere Arbeitsplätze, die auf die gleiche Datenbank zurückgreifen müssen – nur dann ist es nicht mehr notwendig, sich den Arbeitsplatz zu merken, an dem eine Person untersucht worden ist. „Intranets“ dürften mehr oder weniger Ausschnitte der folgenden Struktur sein: mehrere Diagnostik-Arbeitsplätze sind mit einer Datenbank verbunden, die auf einem extra Serverrechner oder bei Pair-to-pair-Netzen auch auf einem der Diagnostikarbeitsplätze sein kann. Auch von seinem Arbeitsrechner aus sollte der Diagnostiker Zugang zur Datenbank haben, um sich Ergebnisse anzuschauen oder Untersuchungen vorzubereiten. Idealerweise können auch während der laufenden Untersuchung vom Auswerte-Arbeitsplatz aus bereits vorliegende Ergebnisse inspiziert werden, um „makroadaptiv“ die Untersuchungsstrategie anzupassen. Die Trennung beider Arten von Computerarbeitsplätzen würden wir nur deshalb für sinnvoll erachten, weil Diagnostik-Arbeitsplätze ergonomisch besondere Anforderungen stellen (s.o.).

Technisch sind die Netzprobleme gelöst – es verbleiben noch nicht umgesetzte hohe Anforderungen vor allem hinsichtlich des Datenschutzes. Moderne Datenbanktechnologien gestatten es grundsätzlich, Zugriffsrechte gezielt zu vergeben. Es muss vor allem seitens der Betriebssystem-Entwickler gewährleistet bleiben, dass sich keine Sicherheitslücken im Netzwerk auftun.

Diagnostik-Arbeitsplatz

Diagnostik-Arbeitsplatz

Auswerte-Arbeitsplatz

Datenbank

Diagnostik-Arbeitsplatz

Diagnostik-Arbeitsplatz

Auswerte-Arbeitsplatz

Abbildung 6: Vernetzung der Datenbank mit verschiedenen Diagnostik-Arbeitsplätzen und Auswerte-Arbeitsplätzen.

Das Internet, die „globale“ Vernetzung, wird auch für die Psychodiagnostik nicht ohne Konsequenzen bleiben.

Zukünftig ist es beispielsweise möglich, dass Testungen direkt als Dienstleistungen im Internet angeboten werden. Dies kann öffentliches „test yourself“ und professionellen Testeinsatz gleichermassen betreffen. Erste Ansätze und Beispiele bietet „www.test.com“ als Online Test Service im Internet, wo gegenwärtig über 1'300 Tests in verschiedenen Bereichen

Page 34: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

34

(z.B. Karriere, Berufsvorbereitung, Familie, Persönlichkeit) angeboten werden. Einige Tests sind frei verfügbar, für einige muss ein Kredit vorab erworben werden. Es besteht sogar das Angebot, eigene Tests zu gestalten. Möglichkeiten und Gefahren werden deutlich: Bei Anwendungen im nichtprofessionellen Bereich, die ja in der Regel auch stark aus Selbsterkenntniszwecken motiviert sind, werden die Gefahren einer „Stigmatisierung“ sehr deutlich.

Auch für professionelle Testsysteme bietet das Internet allerdings neue Möglichkeiten. Wissensdatenbanken, Informationsgewinnungsobjekte (zu denen die Tests gehören) und Auswertungs-/Befundungsobjekte lassen sich zentral (oder „multizentrisch“) pflegen und dezentral beliebig aufrufen. Die Vorteile liegen auf der Hand. Es entfällt die lästige Programmpflege mit immer neuen Updates. Man erwirbt nur Verfahren, die wirklich gebraucht werden - dies auch erst in dem Moment, in dem man sie braucht und in der aktuellsten Form. Die Voraussetzungen bis dahin (breiter verfügbare Netzanbindung, Datenschutzprobleme, Fragen der Vergütung) werden praktisch täglich ein Stück mehr geklärt.

2.6.4 Normenproblem und Netz

Wenn wir das Normenproblem erst an dieser Stelle diskutieren, dann deshalb, weil die Vernetzung eine mögliche Lösung der Normaggregierung bilden kann. Grundsätzlich bedürfen alle Verfahren einer „computerspezifischen“ Normierung. Bisher fällt es relativ schwer, die für Normstichproben notwendigen Personenzahlen in kurzen Zeiträumen zu erreichen. Der für Fragebogennormierungen übliche „Umfrageweg“ ist wegen der Notwendigkeit von Technik erschwert, und auch die bei Normierung von Leistungstests üblichen Gruppentestungen sind meist durch die verfügbare Technik begrenzt. Normen sammeln sich, so die Erfahrung, nur langfristig durch Aggregation aus verschiedenen Quellen (Qualifizierungsarbeiten, gezielte Untersuchungen, laufende Diagnostik) an.

Alt ist die Idee, am Computer eine „adaptive“ Normdatenbank zu führen: mit jeder Testung würde sie sich füllen und präzisieren, indem die untersuchten Personen entsprechend der Fragestellung und der Sozialdaten in die Normdatenbank integriert werden. Diese Idee hat zwei Probleme:

- Im Querschnitt zwischen den einzelnen Diagnostikern würden Normen vom „anfallenden“ Klientel abhängen und wären irgendwann nicht mehr vergleichbar.

- Im Längsschnitt ist für die Verlaufsdiagnostik ebenfalls eine relative Normenkonstanz notwendig, um beispielsweise Behandlungserfolge adäquat zu erfassen.

Der Kompromiss sollte in „Generationen“ von Normen bestehen, die allgemein in regelmässigen Zeitabständen zur Verfügung gestellt werden. Die letzten Generationen müssen für Verlaufsuntersuchungen jeweils noch mit verfügbar sein. So kann auch der Trend der Normentwicklung verfolgt werden.

Page 35: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

35

• hproben-

• Updatedienst

Test-daten-bank

Anonymisierter Datenrücklauf Zentrale Datenbank

• Ergebnissammlung

• Prüfung

Normsticbildung

Anwender

Norm-daten-bank

Normupdates

Abbildung 7: Vernetzung zwischen Anwender und den unterschiedlichen Datenbanken.

Page 36: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

36

3 Computer und Testentwicklung – für Autoren

Computerbasierte Tests sind in Bezug auf notwendige Programmierungsarbeiten aufwendig zu erstellen. Meist werden dabei sehr unterschiedliche Lösungen erarbeitet. Dies bedeutet für Anwender meist recht viel Einarbeitung - bestimmte Daten (Sozialangaben) müssen mehrmals eingegeben werden. Ferner sind diagnostische Daten, die zu einer Person gehören, dann in verschiedenen Systemen gespeichert. Eine negative Konsequenz davon ist die fast „babylonische“ Vielfalt von Teststandards, Bedienvorschriften und Datenspeicherungen. Die Anwender müssen, wenn sie mehrere Tests anwenden oder auswerten wollen, zwischen diesen verschiedenen Programmen wechseln. Auch für die Getesteten entstehen schnell Probleme, wenn mehrere derartige Tests nacheinander durchgeführt werden und sich „Bedienvorschriften“ widersprechen oder Interaktionen zwischen ihnen auftreten.

Die Verwendung von Standard-Entwicklungssystemen (Access, Browser-Objekte des Internets) ist für einfache Zwecke möglich - stösst aber schnell an Grenzen, wenn man z.B. an die Genauigkeit der Zeitmessung höhere Ansprüche stellt oder die ergonomische Gestaltung der Elemente beeinflussen möchte. Eigenentwicklungen auf der Basis neuer Technologien sind relativ anspruchsvoll und kostenaufwendig - lohnen sich für einen einzelnen Test eigentlich nicht.

Um diesen Problemen abzuhelfen, wurde ein System zur Testentwicklung entworfen (Hänsgen, Frossard & Zumbrunn, Hogrefe TestFactory, 1999), welches den Prozess der Testentwicklung für die Autoren vereinfacht. Alle relevanten Informationen eines Tests werden in einer Datenbank erfasst und für die wichtigen Testkomponenten stehen standardisierte Objekte als „Bausteine“ bereit. Die Eingaben in die Datenbank durch die Testentwickler erfolgen im Klartext, es sind keine Programmierkenntnisse notwendig. Kosten und vor allem der Zeitaufwand, mit dem neue Tests erstellt werden können, sind dadurch wesentlich geringer. Ausserdem kann man es sich leisten, bei solchen Tests bereits die Vorformen im gleichen Standard zu erheben wie die Endform, was sich auf die Gültigkeit der Normen und Befunde günstig auswirkt.

Anwender in der Praxis suchen Systeme mit einheitlicher Testwahl, Durchführung, Datenspeicherung und Befundermittlung. Das neue System des Hogrefe Verlages will diesen Rahmen liefern und aufeinander abgestimmte diagnostische Hilfsfunktionen anbieten. Es bestehen bei solchen Projekten natürlich immer Bedenken, ob die notwendige Vielfalt der Verfahrensentwicklungen durch ein solches System eingeengt wird. Die hier gewählten technischen wie organisatorischen Bedingungen dürften diese Gefahr allerdings weitgehend minimieren.

Ein Herausgebermodell wurde gewählt, um den Testautoren vielfältige Möglichkeiten der Zusammenarbeit anzubieten. Durch das Herausgebermodell bleiben Testverfahren die Produkte der Autoren, die diese Hilfsfunktionen unterschiedlich intensiv nutzen können. Der Test wird in ein einheitliches System der Programmverwaltung eingebunden, die Autorenrechte des Testautors bleiben unberührt, d.h. dass der Test unter einer einheitlichen Oberfläche erscheint, aber seine Eigenständigkeit beibehält.

Das bedeutet, dass die Verantwortung der Autoren für ihren Test stärker auch die Computerversionen einschliessen muss. Bisher wurden diese recht aufwändig programmiert, wobei die Autoren kaum helfen konnten - interessierte Autoren haben sich die Version dann angesehen und Fehler berichtet. Hier ist Abhilfe in Sicht, wie die nachfolgenden Modelle zeigen.

Page 37: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

37

3.1 Zwei mögliche Modelle der Zusammenarbeit

Die Umsetzung eines Testkonzeptes in eine Computer-Version mit Tools der Hogrefe TestFactory dürfte die Testentwicklung wesentlich beschleunigen und durch mehr Transparenz auch zu mehr Qualität beitragen. Der Testautor erarbeitet das Konzept. Es wird eine PC-Version entwickelt, die vom Testautor erprobt, standardisiert und normiert wird. Neue Tools bis zur Multimedia-Präsentation erlauben es, sehr moderne und ergonomisch gestaltete Testkonzepte umzusetzen.

Von Testautoren selbst programmierte Verfahren können weiterhin direkt in das Testsystem eingeführt werden (das Durchführungsprogramm wird vom Autor entwickelt und gepflegt). Das Programm muss hierfür nur wenige Voraussetzungen erfüllen. Es kommuniziert mit dem Hogrefe TestSystem über ein Dateninterface, nach der Durchführung werden von dort die Ergebnisdaten in das Hogrefe TestSystem eingelesen und es steht die volle Funktionalität der Auswertung zur Verfügung.

3.2 Nutzen für Testautoren

Moderne Gestaltung, Einbindung in eine komfortable Systemumgebung, die systematische Pflege der Programme, eine professionelle Vermarktung mit der Möglichkeit eines organisierten Datenrücklaufes sind hier zu nennen. Die Autorenrechte am Testverfahren verbleiben den Autoren und der Test wird unter dem Namen des Testautors geführt.

3.3 TestFactory – Werkzeug für die Testentwicklung

Mit diesem System ist ein neuer Qualitätsstandard bei der Testentwicklung leichter umsetzbar - Assistenten enthalten die notwendigen Regeln und Hinweise für die Tests und alle Informationen werden auf Richtigkeit und Vollständigkeit geprüft. In der ersten Phase erfolgt die Testentwicklung zentral, der Autor wird, wie weiter unten beschrieben, in diesen Prozess einbezogen. In einer zweiten Phase (v.a. abhängig von der Bediensicherheit des Systems) sind dann direkte Deklarierungen der Tests durch die Autoren angedacht.

Folgende Leitlinien wurden bei der Systementwicklung beachtet:

• standardisierte Anforderungen an die Dokumentation von Tests (Handbücher) werden in der Assistentenfunktion abgefragt;

• Standards für die Instruktion (nutzer- und systemspezifische Teile werden verbunden) vereinheitlichen den Instruktionsaufwand - bei der Durchführung mehrerer gleichartiger Tests ist so eine Anpassung der Instruktion möglich. Nicht alles muss immer wieder neu instruiert werden;

• Wiederaufrufbare Hilfen während des Tests sind möglich, vor allem wenn die Instruktion anfangs unklar war (bei geeigneten Tests);

• Einheitliche Gestaltungs- und Bedienelemente werden für Tests verwendet;

• Einheitliche Richtlinien für die Zeitmessung und Ereignisregistrierung, Speicherung der Einzelreaktionen mit Zeitstempel - daraus kann auch nachträglich jede beliebige Aggregation für Parameter berechnet werden;

Page 38: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

38

• Einheitliches Merkmals- und Parameterkonzept (mit Verbindung bis zu Prozeduren der Diagnosefindung);

• Standardisierte Werkzeuge wie Schnelleingabe von Ergebnissen (z.B. von einem Antwortblatt), für Profilblätter (auch für gleichzeitige Darstellung mehrerer Messungen zu Vergleichszwecken) und zur Inspektion der Itemantworten und Bepunktungen.

Test author(s)

Abb

AusVombereanal

TesQuaVerIntrTesdies

VerbessSeitaufwSha

DieVerTesverl

TestFactory

Test user

Publishing houseSystem developer

1 Information distribution

2 Authoring tests

3 Providing System - Authorware- Test Tools

1 Information distribution

2 Authoring tests

3 Providing System - Authorware- Test Tools

1

2

3

ildung 8: Struktur einer computerunterstützten Testentwicklung („TestFactory“).

dem Konzept ergeben sich Konsequenzen für die Organisation der Testentwicklung. Systementwickler werden die Werkzeuge für Tests und die Entwicklungsumgebung

itgestellt und gepflegt. Hier werden die verschiedenen Anforderungen der Testentwickler ysiert und entsprechende Standards darauf abgestimmt und weiterentwickelt.

tautoren können die notwendigen Spezifikationen für ihre Tests selbst eingeben und die lität wegen der Verwendung von Klartext laufend überprüfen. So wächst auch die antwortlichkeit der Autoren für die computerbasierten Instrumente. Wegen der ansparenz von bisherigen Programmen konnte diese Überprüfung NUR durch laufende tungen des Endproduktes erfolgen, nicht alle Autoren konnten die entsprechende Zeit für en recht aufwendigen Schritt aufbringen.

lage können in diesem Testentwicklungsprozess ihren „Mediationsfunktionen“ ebenfalls er gerecht werden, indem sie für alle Kommunikationsprozesse zwischen den beteiligten en organisieren. Tests müssen weiter wie bisher vertrieben werden - es bleibt weiter ändig, Tests zu entwickeln und ausreichend zu normieren (was eher teurer wird).

rewaremodelle für Psychodiagnostik bleiben daher eine Illusion.

Anwender erhalten die Tests vielleicht etwas schneller als bisher in aktualisierten sionen, z.B. mit erweiterten Normen. Der Aufwand für die Erstellung einer neuen tversion hat sich verringert (und auf die Entwicklung allgemein nutzbarer Werkzeuge agert).

Page 39: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

39

Abbildung 9: Ausschnitt aus dem Datenbankkonzept für die Testentwicklung.

Die Abbildung 9 zeigt einen Ausschnitt der Datenbankstruktur, welche alle Elemente eines Tests und ihre Relationen enthält. Diese Struktur wurde aus der Analyse von ca. 200 Tests des „alten“ Hogrefe TestSystems entwickelt und dürfte daher für die meisten Tests repräsentativ sein. Es wird verschiedene "Generationen" eines Tests geben, damit für Verlaufsmessungen z.B. auch über mehrere Jahre die gleiche Version verwendet werden kann. Die Erstellung einer durchführbaren Version eines Tests reduziert sich auf die Erstellung eines Scripts, welches compiliert wird und dann als Testmodul sofort lauffähig ist. Das eigentliche Testsystem interpretiert dann diese Scripts und führt sie durch.

Page 40: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

40

Script

Database

TestFactory main

Compiler

1 Authoring Tests

2 Compiling

3 Distributing system andtest modules (compiledscripts)

1 Authoring Tests

2 Compiling

3 Distributing system andtest modules (compiledscripts)

12

3

Toolbox

Abbildung 10: Computerunterstützte Testentwicklung – Ablaufschema.

Mit dem Eingabeprogramm werden die Elemente der Tests in die Datenbank spezifiziert. Das nachfolgende Bild zeigt das Hauptmenü mit den Items eines Untertests vom IST 2000. Man sieht im linken Verzeichnisbaum, welche Angaben für den Testaufbau weiterhin notwendig sind.

Abbildung 11: Hauptmenü mit Items des Untertests „Satzergänzung“ (IST 2000).

Page 41: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

41

3.3.1 Ablauf einer Testentwicklung mit TestFactory

1. Vom Autor werden ein Konzept und alle Informationen zum Test bereitgestellt. Der Entwicklungsprozess wird beschleunigt, wenn so viel wie möglich davon bereits in elektronischer Form zur Verfügung steht.

2. Der Test wird am ZTD erfasst, wobei fehlende Informationen beim Autor abgefragt werden.

3. Der Autor erhält ein HTML-Dokument mit allen Testangaben zur Korrektur. Alle Informationen können im Klartext geprüft werden (s. Abb. 12). Für die Instruktionen und die Itemlayouts wird ein Demoprogramm gefertigt.

Abbildung 12: HTML-Dokument des 16-PF-R.

Page 42: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

42

4. Aufgrund der Korrekturen wird der Test erstellt und für die Erprobung aufbereitet. Mit dieser Technologie stehen die Tests sehr schnell in der Endform zur Verfügung. Entwicklungs- und Normierungsarbeiten finden bereits mit einer Fassung statt, die formal der Endform entspricht.

4 Einsatz des Testsystems

4.1 Training der Eingabe und Abbau der Testangst

Vor allem in leistungsdiagnostischen Untersuchungen ist es wichtig, eine mögliche Testangst abzubauen. Eine ausführliche Vorbereitung auf die Untersuchung durch ein Gespräch ist notwendig und kann schon viel bewirken. Dennoch sollten vor allem Ungeübte ausreichende Möglichkeiten haben, sich mit dem „Setting“ vertraut zu machen. Oft wird fälschlicherweise angenommen, man müsse über Computerkenntnisse verfügen, um Tests bearbeiten zu können.

Die Reihenfolge der Tests ist dabei entscheidend, um erste „Berührungsängste“ nicht als Störgrösse in den Ergebnissen zeitkritischer Tests wiederzufinden. In jedem Falle sollte ein „Anwärmtest“ durchgeführt werden. Dies kann ein Fragebogen sein - es stehen allerdings auch spezielle Tests für diesen Zweck zur Verfügung. Einfache Übungsprogramme können vorgeschaltet werden, um sich an die Interaktion zu gewöhnen. Ein weiterer wichtiger Effekt ist die Stabilisierung von Reaktionszeiten. Vor allem die Ergebnisse des Übungsprogramms zeigen, dass eine „Anwärmphase“ für eine gleichbleibend schnelle Reaktionsgeschwindigkeit während der eigentlichen Testung notwendig ist. Für die Anwendung von Aufmerksamkeitstests hat dies eine nicht zu unterschätzende Bedeutung.

4.1.1 Übungsprogramm / Einführung - UEB

Es ist eine Version mit allgemeiner und mit klinischer Instruktion verfügbar. Zunächst erscheinen auf drei Bildschirmseiten einige Informationen zur allgemeinen Zielstellung der Testuntersuchung. Im einzelnen wird der Proband wie folgt eingeführt:

"Leistungstest mit Computer"

"Es ist das Ziel der Untersuchung, ein Bild von bestimmten psychischen Merkmalen oder

Problemen zu gewinnen, damit die notwendigen Entscheidungen sachgerecht getroffen

werden können.

Der Computer ist dabei nur Hilfsmittel, nur der Diagnostiker kann Befunde auswerten und verstehen.

Die Sorge, dass Unberechtigte diese Ergebnisse erhalten, ist unbegründet:

Ohne Ihre Zustimmung dürfen keine Befunde an Dritte weitergegeben werden. Ihr

Untersucher würde Sie also in jedem Falle vorher befragen, falls dies einmal in Ihrem Interesse sinnvoll sein sollte.

Das Programm selber arbeitet so, dass nur Ihr Untersucher Ihre Ergebnisse auswerten

kann, weil der Zugang zum Programm und die Daten geschützt gespeichert sind.

Page 43: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

43

Auf dem Bildschirm werden Ihnen dann einige Aufgaben gestellt.

Diese sind ganz verschieden, können einmal mehr die Leistung, zum anderen bestimmte

Wesenszüge oder Eigenarten betreffen. Diese Informationen sind für das Treffen einer

Entscheidung notwendig.

Da sich viele Leistungsprobleme erst nach einer bestimmten Zeit zeigen, muss die Untersuchung eventuell einige Zeit dauern.

Es kommt dabei sehr darauf an, ob Sie die gesamte Zeit mit gleichem Tempo und gleicher Sorgfalt arbeiten können."

Diese Texte können das Gespräch nicht ersetzen! Anschliessend wird der Proband gebeten, zweistellige Zahlen mit Hilfe der Zahlenreihe auf der Tastatur einzugeben. 3 Serien, die aus je 8 zweistelligen Zahlen bestehen, werden durchgeführt.

Gemessen wird die Zeit bis zum ersten Tastendruck. Pro Serie wird eine mittlere Reaktionszeit ermittelt. Die Mittelwerte und Streuungen erscheinen als Diagramm in der Auswertung. Ausserdem wird pro Serie die Fehleranzahl erhoben. In der Regel werden aber keine oder sehr wenige Fehler gemacht. Die Reaktionszeiten sind C-normiert (s. Abb. 13). Von besonderem Interesse ist die Reaktionszeit in der dritten Serie als Grund-Reaktionszeit. Selbst Probanden, die zum ersten Mal vor einem Computer sitzen, sollten sich bis zur dritten Serie an den Eingabemodus angepasst haben. Sollte auch in der dritten Serie ein C-Wert von 2 nicht überschritten werden, so deutet dies auf eine allgemein verringerte Reaktionsgeschwindigkeit hin, was sich auf die Leistung in anderen Leistungstests generell niederschlagen kann, so dass deren Ergebnisse vor diesem Hintergrund zu interpretieren sind.

UEB Übung Reaktionszeit

------------------------------------------------------------------------

System-Test

NORM: Normalpopulation, 3 Altersgruppen, N = 426; Patientendaten vgl. Handbuch

Merkmal: Tempo bei einfachen Reaktionsanforderungen.

Erfassung: 3 Serien, je 8 Zahlen. Messung der Zeit bis zur Eingabe der jeweils

ersten Ziffer. Verlaufsprofil der Reaktionszeit über die Serien beachten.

------------------------------------------------------------------------

Zeit (sec/100) m s ¦ schneller <-(m-s)----m----(m+s)-> langsamer

------------------------------------------------------------------------

1. Serie 120 13 ¦ <----m----> ¦

2. Serie 107 18 ¦ <-----m-----> ¦

3. Serie 108 11 ¦ <---m---> ¦

------------------------------------------------------------------------

Normwerte für Zeiten (niedriger C-Wert: langsam) und Fehleranzahl:

------------------------------------------------------------------------

1. Serie C-Norm: 7 Fehler: 0

2. Serie C-Norm: 7 Fehler: 0

3. Serie C-Norm: 5 Fehler: 0

Fehlersumme: 0

Abbildung 13: Reaktionszeiten beim Übungsprogramm.

Page 44: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

44

Es liegen Ergebnisse für drei Stichproben vor: Gesunde, Patienten mit Leistungsstörungen und Patienten mit einem dementiellen Syndrom. Die Stichproben werden in Tab. 8 näher beschrieben. Der Zusammenhang zwischen dem Alter der Probanden der Demenz-Stichprobe und der Reaktionszeit geht aus der folgenden Tabelle hervor. Tabelle 8: Untersuchte Stichproben.

Gesamt männl. weibl. 18-25 26-35 36-45 46-55 > 55

Normalpersonen 426 241 185 83 71 77 73 122

Patienten mit Leistungsstörungen

263 129 134 23 31 37 58 114

55-57 58-62 63-78

Demenz-Stichprobe 100 47 53 33 37 30

Tabelle 9: Alterseinfluss in der Demenz-Stichprobe. Reaktionszeiten in sec/100.

Mittelwerte Standardabweichung

55 - 57 Jahre 58 - 62 Jahre 63 - 78 Jahre 55 - 57 Jahre 58 - 62 Jahre 63 - 78 Jahre

1. Serie 214 215 217 53 67 56

2. Serie 154 161 163 48 40 42

3. Serie 149 157 158 50 38 59

Eine Varianzanalyse über diese Stichprobe ergab keinen signifikanten Alterseinfluss auf die Reaktionszeiten. Die folgenden Tabellen geben Werte in den Parametern wieder, die an der Gruppe der Gesunden (n = 426) und der Gruppe der Patienten mit Leistungsstörungen (n = 263) gewonnen wurden. Tabelle 10: Mittelwerte und Standardabweichung der Parameter für Gesunde und Patienten mit Leistungsstörungen.

Parameter Mittelwerte

Standardabweichung

Varianz-homogenität

Mittelwerts-unterschied

Gesunde Patienten Gesunde Patienten F-Test p < 0,05

t-Test p < 0,05

Reaktionszeit (RT) - Serie 1 171,0 275,7 41,9 276,4 * *

Reaktionszeit (RT) - Serie 2 121,6 156,9 25,4 36,3 * *

Reaktionszeit (RT) - Serie 3 121,1 147,5 23,2 33,0 * *

Standardabweichung - Serie 1 69,8 76,7 47,2 58,1 *

Standardabweichung - Serie 2 29,4 36,5 21,5 36,7 *

Standardabweichung - Serie 3 26,8 32,8 15,8 22,3 * *

Fehleranzahl - Serie 1 0,1 0,1 0,4 0,5 *

Fehleranzahl - Serie 2 0,1 0,2 0,3 0,5 *

Fehleranzahl - Serie 3 0,1 0,2 0,4 0,6 *

Page 45: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

45

Tabelle 11: Korrelationen zwischen mittlerer Reaktionszeit und Fehleranzahl, getrennt für die 3 Serien.

Gesunde Patienten

Serie 1 -0,09 0,64**

Serie 2 -0,08 0,168

Serie 3 0,17 0,01

Für die drei untersuchten Gruppen wurden folgende Interkorrelationen der Mengenleistung in den drei Serien ermittelt: Tabelle 12: Interkorrelationen der Mengenleistung in den 3 Serien.

Gesunde Patienten Demente

Serie 1 Serie 2 Serie 3 Serie 1 Serie 2 Serie 3 Serie 1 Serie 2 Serie 3

Serie 1 1 0,51** 0,45** 1 0,43** 0,38** 1 0,71** 0,73**

Serie 2 0,51** 1 0,72** 0,43** 1 0,63** 0,71** 1 0,77**

Serie 3 0,45** 0,72** 1 0,38** 0,63** 1 0,73** 0,77** 1

4.1.2 Mausübung

Besonders bei der Verwendung der Maus ist eine Eingewöhnung notwendig. Bei Jüngeren sollten heute keine Probleme (mehr) auftreten. Für ältere Personen kann die Maus eine sensumotorisch anspruchsvolle Anforderung sein.

Zur Übung wird als Aufgabe die Markierung von Antwortfeldern und die anschliessende Korrektur durch erneute Markierung dargeboten. Dies entspricht der Anforderung, wie sie bei einigen Tests mit wahlweiser Mauseingabe gestellt wird (z.B. Begriffsumfangs-Test).

4.1.3 Eingabetraining Tastatur und Maus - ETR

Alternativ zum Übungsverfahren UEB kann auch das Eingabetraining ETR durchgeführt werden, um den Probanden mit der Tastatur- bzw. Mauseingabe vertraut zu machen. Dies mag insbesondere dann von Bedeutung sein, wenn eine Baseline der Reaktionszeit für Tests erfasst werden soll, deren Layout und Eingabemodus im wesentlichen dem dieses Trainings entspricht (z.B. SZT).

Auf dem Bildschirm erscheinen während drei Minuten7 realer Bearbeitungszeit die Ziffern 1 bis 9, die so schnell wie möglich durch den Probanden mit Hilfe der Tastatur einzugeben bzw. mittels Maus anzuklicken sind. 9 Anwärmitems werden nicht registriert.

Gemessen wird jeweils die Zeit bis zum Tastendruck. Die Gesamtzeit wird in sechs Serien à 30 Sekunden aufgeteilt, die gesondert im Auswerteausdruck dargestellt werden, um auch eine

7 In die reine Bearbeitungszeit geht ausschliesslich die Zeit zwischen Itemdarbietung und Beantwortung ein. Nicht berücksichtigt sind Zeiten der Rückmeldung (je nach Test z.B. richtig, falsch, Reaktionszeit), Pausen vor dem folgenden Item u.ä.m.

Page 46: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

46

Entwicklung über die Zeit sichtbar zu machen. Für jede Serie wird die Anzahl der Richtigen, der Zeitmittelwert sowie die Fehlerzahl erfasst. Testbeginn: 26.02.95, 16:22:22 Uhr. Dauer 4:50 min.

NORM: explorativ

Merkmal: Aufmerksamkeit, einfache Anforderung

------------------------------------------------------------------------

Se- Rich- Feh- Zeitmittel (sec) | Richtige - Fehler

rie tige ler richtig Fehler |

------------------------------------------------------------------------

1 36 1 0.83 0.30 |-----------------------

2 37 1 0.80 0.81 |------------------------

3 40 0 0.77 0.00 |---------------------------

4 39 1 0.77 0.27 |-------------------------

5 33 0 0.92 0.00 |----------------------

6 37 0 0.81 0.00 |-------------------------

Abbildung 14: Übersicht über Eingabetraining Tastatur und Maus.

4.1.4 Sozialdateneingabe - SOZD

Insbesondere für Forschungszwecke liefert das Hogrefe TestSystem ein standardisiertes Modul zur Sozialdateneingabe, das die üblichen Daten, die zur Kennzeichnung einer Normierungs- oder Standardisierungsstichprobe dienen, enthält.

Die Daten werden gespeichert und können zur Weiterverarbeitung in ASCII-Dateien integriert werden. Die erhobenen Daten können dem Auswertebeispiel entnommen werden.

4.1.5 Fragen zum Testerleben - FTE

Für Untersuchungen zur Akzeptanz und zu möglichen Problemen bei Anwendung computergestützter Diagnostik wird als Vorschlag ein Fragenkatalog zum Testerleben geliefert: 1. Es fiel mir leicht, die Tests zu bearbeiten. 2. Zeitweise habe ich den Anweisungen nicht folgen können. 3. Ich hatte ziemliche Angst, die Aufgaben nicht zu schaffen. 4. Meine Ausdauer war während der ganzen Zeit gleichmässig gut. 5. Ich hatte zeitweise ziemliche Probleme mit der Konzentration. 6. Ich könnte noch länger solche Aufgaben lösen. 7. Zeitweise habe ich nicht verstanden, was am Computer ablief. 8. Während der Bearbeitung hatte ich das Gefühl, aufgeben zu wollen. 9. Ich bin mit den Leistungen zufrieden, die ich zeigen konnte. 10. Ich war durch die Aufgaben stark überfordert. Die Beantwortung erfolgt nach dem Grad des Zutreffens der Aussage sechsstufig (trifft nicht zu / wenig zu / etwas zu / ziemlich zu / überwiegend zu / ganz genau zu). Je nach Polung des Items wird für die Antwortstufen ein Punktwert von 0 bis 5 bzw. 5 bis 0 vergeben, die Punkte werden zu einem Gesamtwert zusammengerechnet.

Page 47: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

47

Der Auswerteausdruck gibt den Gesamtpunktwert, eingeordnet in die theoretische Rohwertskala, Antwortvektor, mittlere Antwortzeit, Zahl zu früher Antworten und Antwortverweigerungen an.

4.1.6 Visuelle Analogieskala - Stimmungsbarometer - VAS

Eine sehr einfache Möglichkeit der Befindlichkeitserfassung ist das direkte Rating der Befindlichkeit auf einer stetigen bipolaren Skala. Mittels Computer ist eine Darstellung als 'Schiebe-Schalter' möglich, der zwischen den beiden Polen bewegt werden kann. Die Auflösung der Werte in der Messskala bewegt sich zwischen 0 und 100, welche intern in Zweierschritten (also 50 unterscheidbare Werte) abgebildet ist.

Es ist eine ein- und eine fünfdimensionale Form8 verfügbar:

Stimmung negativ - positiv (1. Dimension in beiden Formen);

müde - munter; gelangweilt - interessiert; erschöpft - leistungsfähig;

abgelenkt - konzentriert.

Abbildung 15: Direktes Rating der Befindlichkeit auf bipolarer Skala.

4.2 Besondere Optionen für Fragebögen

Wie bereits in den Kapiteln über das Testwahl- und das Auswertemenü erwähnt, stehen für Fragebögen spezielle Optionen für die Durchführung und Auswertung zur Verfügung.

8 Wir danken Frau Dr. I. Höfer (Zürich) für die Auswahl der 4 Zusatzdimensionen, die sie in einer Verlaufsuntersuchung verwendet hat.

Page 48: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

48

Urteilsmethoden werden im Hogrefe TestSystem mit Hilfe eines einheitlichen Moduls durchgeführt, so dass die wesentlichen Durchführungscharakteristika für die einzelnen Instrumente identisch sind. Dies betrifft insbesondere die folgenden Eigenschaften:

• Die Antworten wurden so codiert, dass alle drei Eingabemedien (Tastatur, Maus, Touchscreen) verwendbar sind. Jedes Antwortlayout wurde so übersetzt, dass es mit der Taste 1 beginnt und sich dann fortlaufend der weiteren Tasten bedient. In einigen Papier-Bleistift-Tests wird Null als erste Stufe verwendet. Auch auf der Tastatur als bisheriges Haupt-Eingabemedium sollte die Anordnung der Tasten aber nicht gegen die Skala laufen. Die Null liegt auf den Tastaturen ausserhalb der "Skalierung" - 1 bis n Stufen wachsen von links nach rechts, die Null liegt aber ganz rechts. Das hat zu Irritationen geführt.

• Die Einhaltung einer minimalen Lesezeit (die abhängig von der Itemlänge ist) zwischen dem Erscheinen des Items und der Antworteingabe wird geprüft. Bei zu schneller Antwort wird der Hinweis gegeben, das Item genau zu lesen, und das Item ist erneut zu beantworten. Damit werden Beantwortungen durch „blindes“ Tastendrücken zum Teil abgefangen - ein „schneller Testdurchlauf“ ist nicht möglich.

• Eine Antwortkorrektur ist möglich. Nach der Reaktion wird die gegebene Antwort angezeigt, und es ist eine Korrektur durch Drücken der entsprechenden Taste möglich.

• Zum jeweils letzten Item kann zurückgeblättert werden. Diese Option wird erst mit der jetzt vorliegenden Version angeboten, da sich gezeigt hat, dass insbesondere bei sehr spontan und schnell antwortenden Probanden gelegentlich die Antwort und Bestätigung der Antwort sofort aufeinander folgen, ohne dass die Antwort noch einmal geprüft wird. Andererseits sind einige Patienten bei einer Fehleingabe verunsichert und nicht in der Lage, sofort, ohne Rückfrage an den Versuchsleiter, die Antwort innerhalb des vorgesehenen Zeitintervalls zu korrigieren.

• Alternativ zum direkten Antwortmodus ist eine Schnelleingabe der Antworten von einem Protokoll möglich. Damit können auch Papier-und-Bleistift-Tests mit Hilfe des Programmsystems befundet werden. Sind bei einem Item mehrere Antworten zugelassen, können diese nacheinander eingegeben werden (sie erscheinen durch Komma getrennt). TAB bzw. ENTER erlaubt in diesem Falle ein Weitergehen zum nächsten Feld.

• Nach Überschreiten einer Antwortzeit (der Wert ist testspezifisch, standardmässig 1 Minute) erfolgt die Anfrage, ob wirklich keine Antwort gegeben wird. Nach einer erneuten Frist wird das nächste Item dargeboten und das aktuelle als nicht beantwortet bewertet. Fünf auf diese Weise nicht beantwortete Items sind ein Abbruchkriterium für den Fragebogen. Dies soll dem vorwiegend bei Depressiven beobachteten Grübeln über ein Item vorbeugen.

• Der Proband hat die Möglichkeit, auf eine Frage nicht zu antworten. In diesem Fall ist die Leertaste zu drücken. In der Instruktion wird darauf hingewiesen, dass dies zwar möglich ist, jedoch immer die am ehesten zutreffende Antwort gesucht werden sollte. Entschliesst sich der Proband, ein Item unbeantwortet zu lassen, wird noch einmal auf die Instruktion hingewiesen („Wirklich keine Antwort? - Bitte wählen Sie die am ehesten zutreffende Antwort oder nochmals grosse Taste drücken.“). Es zählt dann die zweite Antwort. - Dieses Vorgehen scheint trotz aller Gegenargumente notwendig, da auch im herkömmlichen Fragebogen Antworten offen bleiben können und der Proband nicht zu einer Beantwortung gezwungen werden soll, die nur formal erfolgen würde. In der Praxis zeigt sich, dass die Zahl unbeantworteter Items ausgesprochen gering ist. In jedem Falle wird bei der Auswertung auf die Anzahl unbeantworteter Fragen und die dadurch eingeschränkte Interpretierbarkeit des Ergebnisses hingewiesen. Liegt der Anteil nicht beantworteter Items über 15 Prozent, so erfolgt keine Auswertung.

Page 49: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

49

• Nicht beantwortete Items werden auf verschiedene Weise behandelt, wobei - falls vorhanden - Vorgaben der Testautoren Berücksichtigung finden. Drei Methoden werden verwendet: (1) die Verwendung des Mittelwertes der theoretischen Antwortskala (z.B. bei 5 Stufen der Wert 3); (2) die Verwendung des Mittelwertes der Eichstichprobe (Item-Schwierigkeitswert); (3) die Verwendung des Mittelwertes der beantworteten Items der Skala, in die das fehlende Item gehört. Welche der drei Methoden benutzt wird, ist verfahrensspezifisch festgelegt, wobei bei fehlender Spezifizierung die Methode 1 angewendet wird.

Häufigkeit der Nutzung von Antwortstufen:

Stufe 1: 6% ¦■■■

Stufe 2: 14% ¦■■■■■■■

Stufe 3: 14% ¦■■■■■■■

Stufe 4: 66% ¦■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■

Repetitionen: 66 (Maximum bei 50 Items: 1225); Index: 0.05

Antwortzeit für alle Items (Sekunden): m = 5.1; s = 3.6

Abbildung 16: Antwortstatistik, getrennt nach Antwortstufen.

4.2.1 Analyse der Antwortzeiten

Wenn unter "Ergebnisse" der Button "Auswerten..." und dann die Option "Auswertung" gewählt wird, erscheinen die mittlere Bearbeitungszeit pro Item und die Standardabweichung. Die Bearbeitungszeit wird in ipsativer Normierung gesondert für jede Skala bestimmt und als Profil dargestellt. Die Interpretation dieses Profils sollte mit Zurückhaltung erfolgen. Es ist aber beispielsweise ratsam, bei relativ verlängerten Antwortzeiten in einer Skala und unauffälligen Werten eine Nachexploration dahingehend vorzunehmen, ob dieser Bereich für den Patienten von besonderer Bedeutung ist.

Page 50: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

50

ZEITANALYSE ANTWORTZEITEN PRO ITEM (in s/10)

Mittelwert für alle Items: 231 Standardabweichung: 141

------------------------------------------------------------------------------

Ipsative Mittelwerte für Skalen m=50, s=20, hohe Werte: lange Zeiten

-----------------------------------------------------------------------------¦ Zeit (sec) ¦0 50 100¦

-------------------------------------+----------------------------------------

Allgemeines Beschwerdenniveau ¦ 5,0 ¦ . . .| . * . |. . . ¦

Körperl.-funktionelle Beschwerden ¦ 5,3 ¦ . . .| . * . |. . . ¦

Psychische Beschwerden ¦ 4,7 | . . .| . *. . |. . . ¦

Verdauungsbeschwerden ¦ 6,9 ¦ . . .| . . .*|. . . ¦

Herz-Kreislauf-Beschwerden ¦ 5,0 ¦ . . .| . * . |. . . ¦

Wasserhaushalt ¦ 6,2 ¦ . . .| . . * |. . . ¦

Neurasthenische Beschwerden ¦ 3,8 ¦ . . .| * . . |. . . ¦

Hypochondr.-anankast. Beschwerden ¦ 5,4 | . . .| . .* . |. . . ¦

Soziale Gehemmtheit ¦ 5,0 ¦ . . .| . * . |. . . ¦

Ängste/Phobien ¦ 4,2 ¦ . . .| .* . . |. . . ¦

Abbildung 17: Analyse der Antwortzeiten: Mittlere Bearbeitungszeit, Standardabweichung und ipsative Normierung des Mittelwertes.

4.3 Störungsdiagnostik im Leistungsbereich

Leistungsdiagnostische Fragestellungen gehören in der Pathopsychodiagnostik zu den häufigsten und traditionellen Aufgabengebieten des Psychologen. Auch wenn die Sicherung der therapeutischen Kompetenz des Klinischen Psychologen gegenwärtig mehr im Mittelpunkt des Interesses steht, ist seine psychodiagnostische Kompetenz dadurch nicht automatisch gegeben und sollte nicht aus dem Auge verloren werden. Es handelt sich hier um das zweite wichtige Standbein des berufstätigen Psychologen, das ebenfalls einer materiellen wie rechtlichen Absicherung bezüglich eigenverantwortlichen Handelns und der Anerkennung als Leistung bedarf.

Leistungsdiagnostischer Experte ist der Psychologe, von dem ein hohes Mass an Kooperationsbereitschaft und -fähigkeit erwartet wird. Die Fragestellungen sind häufig komplexer Natur und in Zusammenarbeit mit Neurologen, Psychiatern, Internisten und anderen Spezialisten zu bearbeiten. Die dazu notwendigen Kommunikationsstrukturen sind noch nicht in jedem Falle optimal. Dies betrifft beide Richtungen: die Präzisierung der Fragestellung durch den medizinischen Auftraggeber und verständliche, fragestellungsspezifische Befundung durch den Psychologen. Es ist zu hoffen, dass die Zeiten vorbei sind, da der Arzt die Durchführung eines bestimmten Intelligenztests als Aufgabe stellte.

Beispiele für spezifische Fragestellungen sind die Anwendung psychodiagnostischer Methoden

Page 51: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

51

• im Rahmen der Rentenbegutachtung zur objektiven Beurteilung einer Beeinträchtigung im Leistungsbereich;

• im Rahmen der Differentialdiagnostik bei Leistungsversagen und -beschwerden, um beispielsweise neurotische bzw. depressive Leistungsbeeinträchtigungen von organisch bedingten zu unterscheiden;

• bei der Beratung zur Bildungs- und Berufswahl für Personen mit eingeschränkter Leistungsfähigkeit;

• zur langzeitigen Beobachtung bei Verdacht auf Abbauprozesse und deren Objektivierung;

• zur Beurteilung von Rehabilitations- bzw. Therapieeffekten.

Die Bandbreite der vorhandenen diagnostischen Verfahren zeigt, dass verschiedene Zugänge auf unterschiedlichen Komplexitätsstufen möglich sind. Wichtig ist jedoch, den Zusammenhang zwischen dem diagnostischen Befund und der Beantwortung der Fragestellung auch in der Leistungsdiagnostik stärker zu thematisieren. Stellt beispielsweise eine nachgewiesene Leistungsminderung in einem speziellen Bereich tatsächlich eine Störung bzw. ein Defizit dar? Das bisherige normative Vorgehen - und allemal, wenn es sich lediglich auf Normen von Gesunden stützt - sowie die Anwendung der „Ein-Sigma-Regel“ scheinen dieses Problem nicht gelöst zu haben. Orthonorme und pathonorme Betrachtungsebenen sind präziser zu unterscheiden.

Auch der Schluss von festgestellten Leistungsauffälligkeiten auf hirnorganische Veränderungen oder Störungen ist theoretisch nicht zu rechtfertigen, weil der Wechsel der Prozessebenen „Funktion“ - „Morphe“ kaum eindeutige Relationen zulässt. Einzelne Tests sind hier bedauerlicherweise soweit vorgeprescht, sich als „Hirnschadensdiagnostik“ auszugeben, obgleich sie Funktionsstörungen erfassen, die nur für bestimmte Hirnschädigungen, für bestimmte Lokalisationen typisch sind. Der neuropsychologische Zweig der Psychodiagnostik kann zwar immer wieder Regelhaftigkeiten zwischen Leistungsparametern und vorliegendem Hirnschaden aufzeigen, dabei handelt es sich aber wohlgemerkt um statistische Zusammenhänge. Das muss so sein, wenn man den Systemgedanken konsequent auf diese Relation anwendet. Eine Entsprechung dazu findet sich übrigens auch in der Neurosendiagnostik, wo mitunter Fragebogenergebnisse als ausschliessliche Zuordnungskriterien zur Diagnose „Neurose“ angeboten wurden. In den Anleitungen psychodiagnostischer Verfahren sollte es demnach strenger vermieden werden, einen einfachen Zusammenhang zwischen Testbefund und nosologischer Diagnose zu postulieren. Eine nosologische Zuordnung kann nur im Ergebnis des gesamten Diagnoseprozesses unter Einbeziehung aller diagnostischen Informationen erfolgen.

Die Testauswahl folgt einem Konzept dispositioneller Leistungserfassung, das auf die Identifikation elementarer Funktionen ausgerichtet ist.

Aus einer Analyse von Trends in der modernen Leistungsdiagnostik (Guthke, 1972, 1980; Bartenwerfer, 1983; Guthke, Schaarschmidt & Sprung, 1983; Wolfram et al., 1986) wurden Anforderungen an ein optimales Erfassungssystem abgeleitet, die zukünftig hier umgesetzt werden sollen.

Eine stärkere allgemeinpsychologische Fundierung der erfassten Leistungen und die Überwindung der inventarisierenden „Breitbandmethodik“ (Wolfram et al., 1986) sind notwendig. Das geschieht vor allem durch eine Erhöhung der ökologischen Validität der im Labor erfassten Leistungsfähigkeit. Diese soll Rückschlüsse auf mögliche Störungen der Leistungsfähigkeit im Alltag gestatten. Voraussetzung für eine solche Generalisierbarkeit sind eine angemessene Komplexität der Erfassung und eine Erhöhung der Repräsentativität der erfassten Einzelfunktionen für das Leistungsverhalten insgesamt.

Page 52: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

52

Ausserdem ist zu klären, ob eine noxenunspezifische Konzeptbildung von Leistungsstörungen auf der Grundlage kognitiver Theorien einem separaten, störungsspezifischen Vorgehen überlegen ist. So haben sich beispielsweise innerhalb der Schizophrenieforschung Konzepte herausgebildet, die auch für Leistungsstörungen anderer Genese von Bedeutung sein können. Möglicherweise existiert gerade ein schizophreniespezifisches Defizit nicht, sondern die kognitive Vielschichtigkeit der schizophrenen Störungen ist durch verschiedene Muster gekennzeichnet, die (zum Teil empirisch schon nachgewiesen) auch bei anderen Störungen zu finden sind.

U TYPOLOGISCHE INNERPSYCHISCHE VERHALTENS- U M BESONDERHEITEN REGULATIONSEBENE EBENE M

W WE • Anlagen Sekundäre (innerpsychische) ÜBER- BZW. FEHL- E L • Vorfeldveränderungen Kompensation von KOMPENSATION L

T • Persönlichkeits- Störungen der Informations- T merkmale verarbeitung, z.B.: Verlangsamung

B • Leistungsdispositionen Wiederholungen Anankasmus e Kontrollen Wahn R d Verlangsamung des „Taktes“ Rückzug e

i Besonderheiten des Abschirmung a n informationsverarbeitenden k g Systems vor der Störung ORGANISATIONSDEFIZIT ADÄQUAT t u (Vulnerabilität), z.B.: i n spezifische Verlangsamung Primäre Störungen der Infor- o g Kapazitätsreduktion mationsverarbeitung, z.B.: Krisensituation n s Interferenzneigung Interferenzen Halluzination s

a Entgleisungen Denkstörung a s (cognitive slippages) s

p Fehlaktivierung AKUTE p e DEKOMPENSATION e k Überlastung durch Stress k t ⇑ t

SOMATISCHE REGULATIONSEBENE

Abbildung 18: Entwurf eines integrativen Störungskonzepts.

Obwohl ein kognitives Modell noch fehlt, lassen sich aus vorhandenen Konzepten solche Funktionen ableiten, die eher als „Basisfunktionen“ zu bezeichnen sind. Damit soll die mannigfaltige Phänomenologie kognitiver Störungen auf zugrunde liegende (wesentliche) Basisstörungen zurückgeführt werden. Dieses Konzept ist bei Schizophrenen entwickelt worden (vgl. Huber, 1982; Ciompi, 1984), es spricht aber viel für eine allgemeinere Gültigkeit. Auch Patienten mit hirnorganischen Störungen erleben ihre Störung und reagieren darauf. Tests sind auf der Verhaltensebene angesiedelt und messen letztlich das Resultat eines Kompensationsprozesses. Der innere Regulationsprozess muss erschlossen werden.

Eine Möglichkeit dazu bietet die Anwendung des experimentalpsychologischen Prinzips: Bedingungsvariation als systematische Variation der Anforderungen (vor allem der Komplexität) und Differenzbildung als Analyse der Differenzen zwischen Ergebnissen, die unter verschiedenen Bedingungen gewonnen wurden. Mit diesen beiden methodischen

Page 53: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

53

„Werkzeugen“ ist auch die Möglichkeit eines Rückschlusses auf zugrunde liegende Ursachen gegeben und Regulationsprozesse werden aufklärbar. Es kann gezeigt werden, dass solche Differenzen die Aussagefähigkeit mittelwertorientierter Parameter deutlich erweitern.

Ein solcher Ansatz deckt sich auch mit Vorstellungen von multimodaler Diagnostik. Hier werden verschiedene Datenebenen und -quellen zur Erfassung ein und desselben Funktionsbereichs genutzt: Differenzen sind kein Messfehler, sondern Zeichen für systemimmanente Widersprüche, die diagnostische Information tragen.

4.3.1 Merkmalskonzept für den Leistungsbereich

Prozessorientierte Diagnostik sieht einen Schwerpunkt in der fragestellungsspezifischen Auswahl der Verfahren. Es sollen nur die Informationen erhoben werden, die zur Entscheidungsfindung tatsächlich benötigt werden. Für die dazu erforderliche Taxonomie von Leistungsmethoden sind mehrere Schemata gebräuchlich. Eine Taxonomie ist notwendig, um zu erfassende Leistungen repräsentativ auszuwählen und konzeptbezogen zu interpretieren. Dabei ist nicht so sehr die Taxonomie der Anforderungen bzw. der Verhaltensebene, sondern die Taxonomie der zugrunde liegenden dispositionellen Leistungsmerkmale als Merkmalskonzept der Diagnostik gesucht.

Ein wesentliches Problem in diesem Zusammenhang besteht darin, dass ein Test häufig direkt als Diagnostikum für spezielle Konstrukte definiert wird (Konzentrationstest, Lerntest), dabei aber auch andere Aspekte interpretationsrelevant erfasst. Abgesehen von der Verwirrung, die auf der Ebene der Konstrukte selbst besteht, ist zu hinterfragen, wie eindeutig ein Konstrukt tatsächlich gemessen wird.

Die Lösung sehen wir in einer mehrdimensionalen Konzipierung:

Jedes Testresultat ist Resultante der Wirkung verschiedener Leistungs-

komponenten, die durch die Art der Parametrierung identifiziert (erschlossen)

werden.

Vier Basisdimensionen (Basiskonstrukte) können die oberste Hierarchieebene der Taxonomie bilden, in die jede Anforderung eingeordnet werden kann bzw. nach denen Anteile des kognitiven Lösungsprozesses bestimmbar sind. Es ist zu fragen, ob innerhalb dieser Basisdimensionen Konstrukte bzw. Grössen (im Sinne dispositioneller Merkmale) zu identifizieren sind, die eine prognostische Validität aufweisen. Welcher Aspekt ausgewertet wird, bestimmt sich ausschliesslich aus der Wahl der Parameter.

Page 54: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

54

STATISCHER ASPEKT

(„Resultatsanalyse“)

INTELLIGENZ

Denk- und Problemlösefähigkeit fluid (aktuell) - kristallin qualitativ - quantitativ (Identifikation von Basisgrössen)

GEDÄCHTNIS

AUFMERKSAMKEIT

verbal - visuell - nummeral Selektivität

Wiedererkennung - Reproduktion Tenazität / Konzentration Zeitdauer (Arbeits-

/Langzeitgedächtnis) Umstellfähigkeit / Interferenzfreiheit

LERNFÄHIGKEIT

Verkürzung / Vereinfachung Strategiebildung

(„Weg zum Resultat“, Potenz) DYNAMISCHER ASPEKT

Abbildung 19: Basisdimensionen der Leistungsfähigkeit.

Jeder Test stellt insofern eine intellektuelle Anforderung dar, als ein bestimmtes Problem vorliegt, das in einen Lösungszustand zu überführen ist. Unterscheidende Merkmale von Tests sind dabei:

1. die Komplexität der Anforderung;

2. die Art und das Ausmass geforderten strukturellen oder prozeduralen Wissens;

3. der Grad an „gesteuerter“ vs. „automatisierter“ Verarbeitung (bei Vorliegen fertiger Lösungsprogramme).

Guthke (1972) definiert Intelligenz als Oberbegriff für eine zur Zeit noch nicht genau bestimmbare, wahrscheinlich aber recht grosse Anzahl von unterschiedlichen Denkfähigkeiten, Faktoren bzw. Dimensionen, die das Niveau und die Qualität der Denkprozesse einer Persönlichkeit charakterisieren (S. 20). Diese Definition hat bis heute Gültigkeit. Aus diesem Grund werden sowohl an Faktormodellen orientierte Variablen

Page 55: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

55

übernommen (verbale und logisch-abstrakte Intelligenz) als auch solche, die mehr qualitative Aspekte beinhalten.

Dabei nimmt die Lernfähigkeit eine Sonderstellung ein: Als Fähigkeit zur Vereinfachung, Verkürzung und Automatisierung ist sie immer verlaufsbezogen - und damit auch ein Verlaufsparameter. Dies entspricht Guthkes (1972) Kennzeichnung der Lernfähigkeit als „Intelligenzpotenz“. Erfasst wird sie vor allem durch Leistungsvergleiche innerhalb von Tests (Reaktionszeit, Fehler, Anzeichen für die Ausbildung optimaler Strategien durch Ausnutzung von Regelhaftigkeiten). Wie andere Leistungsaspekte ist auch die Lernfähigkeit als „dynamischer“ Parameter bei jeder Anforderung relevant. Es wäre darüber nachzudenken, ob die Analogie von Geschwindigkeit und Beschleunigung aus der Physik geeignet ist, die Beziehung von Intelligenz und Lernfähigkeit zu beschreiben.

Bei Aufmerksamkeit und Gedächtnis handelt es sich um zwei wichtige Werkzeugfunktionen, die orthogonal zur Intelligenz-Lern-Dimension stehen und ebenfalls bestimmte Subdimensionen aufweisen.

Eine besondere Rolle innerhalb der Gedächtnisfunktionen spielt dabei das Kurzzeit- oder Arbeitsgedächtnis als bedeutende Quelle interindividueller Leistungsunterschiede. Seit langem wird seine zentrale Stelle damit charakterisiert, dass hier der bewusste Teil des Problemlöseprozesses vor sich geht und es dadurch zu einem „Nadelöhr“ für die Bearbeitung von Problemen unterschiedlichster Art werde (z.B. Erdelyi, 1974).

Ein Zusammenhang zwischen Intelligenz und Gedächtnisspanne wurde von vielen Autoren angenommen. Waldmann und Weinert (1990) fassen die kritischen Auffassungen dazu zusammen. Nullkorrelationen sind beispielsweise zwischen der Zahlenspanne und Schultests im mathematischen und verbalen Bereich von Chiang und Atkinson (1976) gefunden worden; bei retardierten Personen fand Spitz (1972) allerdings auch eine geringere Zahlenspanne. Keine Differenzierung hat sich zwischen Hoch- und durchschnittlich Begabten (Globerson, 1983) und innerhalb der Gruppe der Hochbegabten ergeben (Jackson & Myers, 1982).

Die Schlussfolgerung, dass die Kapazität des Kurzzeitgedächtnisses einer universellen Entwicklung unterliege und nicht Quelle interindividueller Unterschiede sei (Globerson, 1983), muss jedoch nicht für den pathologischen Bereich gelten.

Andere Überlegungen zur Intelligenzmessung (Lehrl et al., 1990) thematisieren kapazitäre Parameter des Arbeitsgedächtnisses zur Schätzung der Intelligenz. Damit werden eher quantitative Aspekte (Kapazität, Tempo) als Voraussetzung intellektueller Leistungen in den Vordergrund gerückt. Hier sind zwei wesentliche Parameter für intellektuelle Leistungen zu nennen: (1) Gegenwartsdauer und (2) Geschwindigkeit des Informationszuflusses.

Der erste dieser Aspekte wird mit einem Zahlen-/Buchstaben-Nachsprech-Test gemessen - die Anzahl der behaltenen Buchstaben bzw. Ziffern soll die Gegenwartsdauer als „Breite des Arbeitsgedächtnisses“ operationalisieren. Der zweite Aspekt wird mit der Lesegeschwindigkeit für nicht-redundante Buchstabenfolgen (als Menge der Information, die pro Zeiteinheit verarbeitet werden kann) erfasst. Beide Aspekte stellen dynamische Grössen dar, die durch zahlreiche andere Faktoren beeinflusst werden (z. B. durch die Motivation). Wenngleich ein direkter Zusammenhang zur Intelligenz im Sinne qualitativer Denkfähigkeit noch offen geblieben ist, handelt es sich doch um einen sehr interessanten Zugang zum Intelligenzproblem.

Aufmerksamkeitsstörungen spielen in nahezu allen Krankheitskonzeptionen eine Rolle. Dabei ist in der Praxis die Abgrenzung von Konzentrationsstörungen ungenau, teilweise werden beide Begriffe synonym verwendet. Hier stellen sich jedoch zahlreiche Fragen, so zum

Page 56: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

56

Beispiel: Handelt es sich um ein homogenes Merkmal? Müssen Unterformen unterschieden werden?

Weitgehende Übereinstimmung findet man noch bei der allgemeinsten Definition von Aufmerksamkeit als „Zustand gerichteter Wachheit und dadurch bedingter Auffassungs- und Aktionsbereitschaft des Menschen“ (Clauss, 1981, S. 56) oder als „Schaffung einer angemessenen inneren Aktivität für Aufgabenlösungen“ (Bartenwerfer, 1983). Sobald man jedoch die Messmethoden genauer analysiert, fällt die Abgrenzung und Systematik schon schwerer. Warum ist der Gesamtwert des bekannten Aufmerksamkeits-Belastungs-Tests d 2 (Brickenkamp, 1981) als Konzentration und nicht als Intelligenz (als elementare Fähigkeit) zu interpretieren? Ist nicht eher die Schwankungsbreite der Leistung in diesem Test der Konzentrationsparameter?

Aufmerksamkeitsforschung ist heute eng mit psychophysiologischer Forschung verbunden, mit dem Ziel, diesen Zustand der Wachheit zu objektivieren. Es wäre möglich, Aufmerksamkeit nur der physiologischen Ebene zuzuordnen und ansonsten lediglich von Fähigkeiten zu sprechen. Dennoch sind spezifische Aspekte zu betrachten, die innerhalb der psychischen Systemebene messbar sind.

Auch eine Zuordnung der Aufmerksamkeit zu Wahrnehmungsprozessen lässt sich finden. So stellt Neisser (1976) fest: „Attention is nothing but perception“ (S. 87).

Westhoff und Kluck (1984) schlagen als Taxonomie drei Dimensionen vor: Komplexität der Reizgrundlage, geforderte Leistungen und Grad der Geübtheit. Angestrebte Intelligenzunabhängigkeit kollidiert mit der Forderung nach ökologischer Validität (Guthke, Böttcher & Sprung, 1991).

Differenzierungen des Aufmerksamkeitskonstrukts führen zunächst zur Dualität von Filter- und Integrationsfunktion (Broadbent, 1958; Spreen, 1978). Zum einen wird Information aus einem jeweiligen Kontext hinsichtlich ihrer Relevanz ausgewählt, das heisst, die Gesamtinformation wird reduziert. Zum anderen werden neue, aufgabenspezifische Kontexte generiert, die die lösungsrelevanten Informationen „integriert“ enthalten. Diese formalen Leistungsfunktionen können unter zwei Gesichtspunkten betrachtet werden: Das Niveau bzw. seine quantitative Bewertung dürfte analog der Verarbeitungsgeschwindigkeit im Intelligenzkonzept von Lehrl et al. (1990) eine Basisgrösse der Intelligenz sein. Wenn man Intelligenz als Gesamtheit der Fähigkeiten auffasst, die das Niveau und die Qualität der Denkprozesse bestimmen (Guthke, 1972), dann würde dies Fähigkeiten zum Filtern und Integrieren von Information einschliessen, sofern es sich hierbei um Merkmale handelt, die (1) im orthonormen Bereich variieren und (2) bei hoher Ausprägung dem Individuum Vorteile in Problemlösungssituationen bringen.

Neben der Bewertung des Niveaus bleibt eine spezifische Aufgabe für das Aufmerksamkeitskonzept bestehen, nämlich die Analyse der zeitlichen Dynamik von Leistungsfähigkeit. Wird Konzentration als „Fähigkeit zum Aufrechterhalten der Aufmerksamkeit über längere Zeit“ (Wolfram et al., 1986) definiert, so wird damit der Hauptteil der zeitlichen Dynamik abgedeckt.

Drei Aspekte der Aufmerksamkeit werden in der Literatur unterschieden (Zubin, 1978; Bartenwerfer, 1983; Wolfram et al., 1986):

Selektivität (selection) als Erkennen relevanter und Zurückweisung irrelevanter Reize. Diese Leistung bezieht sich auf die Filterfunktion. Ist sie nicht intakt, entsteht eine Überlastung des informationsverarbeitenden Systems, was beispielsweise für Schizophrene typisch sein soll.

Page 57: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

57

Tenazität (maintenance) als Fähigkeit zur Aufrechterhaltung eines Aktivierungszustandes über einen Zeitraum. Das würde dem Konzentrationsbegriff entsprechen, muss aber hinsichtlich verschiedener Zeitperspektiven differenziert werden.

Umstellbarkeit (shift) als Fähigkeit zum Wechsel zwischen verschiedenen Anforderungen ohne Interferenzen oder Zusammenbruch der einzelnen Handlungen.

Selektivität (Erkennen relevanter und ihr Herausfiltern aus irrelevanten Informationen) und Integrationsfähigkeit (Verknüpfen und Verarbeiten der relevanten Information als prozessuale Leistung des Arbeitsgedächtnisses) sind zwei spezifische bzw. qualitative Aspekte, die in unterschiedlichem Masse je nach Anforderung der Aufgabenstellung in Erscheinung treten. Zu diskutieren wäre, ob sie als spezifische Wahrnehmungsfunktionen im Sinne von „Werkzeugfunktionen“ der Intelligenz tatsächlich vorgeordnet werden können. Die Annahme von Basisgrössen der Intelligenz als allgemeine Verarbeitungsgeschwindigkeit würde diese Unterteilung aufheben. Ein hierarchischer Aufbau von Basisfunktionen wäre aber nicht auszuschliessen, wenn eine Gerichtetheit nachweisbar ist.

Innerhalb der Bewältigung einer Anforderung wird es nun eine zeitliche Dynamik hinsichtlich der Intensität und Genauigkeit der Aufgabenbewältigung geben. Der Aspekt der Tenazität entspricht dieser Dynamik insofern, als Parameter für Fluktuationen während der Bewältigung einer Anforderung gesucht werden.

Zu einem gegebenen Zeitpunkt (Kurzzeitbereich) sind mehrere Anforderungen vernetzt zu lösen; erforderlich ist ein Wechsel zwischen den Anforderungen. Bezogen auf eine gegebene Anforderung, wäre Umstellbarkeit das interferenzfreie Aufrechterhalten der Bearbeitung bis zu einem bestimmten Lösungsgrad.

Die langzeitige Dynamik (Vergleich zwischen den Kurzzeitbereichen) ist davon zu unterscheiden und stellt einen weiteren wichtigen Aspekt der Aufmerksamkeit dar, der am ehesten dem eingeführten Konzentrationsbegriff entspricht. Variation ergibt sich hinsichtlich der Länge der Zeitabstände. Ein Nachlassen der Leistung oder grosse Schwankungen würden auf Konzentrationsmängel hindeuten (nicht auf schlechte Leistungen an sich). Für die Aufrechterhaltung der Aufmerksamkeit als Merkmal sind zur Unterscheidung eine Zustands- und eine mehr dispositionelle Komponente anzunehmen.

Der Lernaspekt als Fähigkeit zur Vereinfachung, Verkürzung bzw. Automatisierung ist in diesem Schema implizit enthalten, da auch er an eine zeitliche Dynamik gebunden ist. Es ist möglich, ihn mit Hilfe von Parametern der Konzentration bzw. Tenazität zu erfassen, wobei Lernen sich in Zeitverkürzungen bzw. Niveauzunahmen zeigt. Bei vielen Verfahren lassen sich Lernfähigkeit und Konzentration sogar durch die gleichen Parameter abbilden.

Bezogen auf pathopsychologische Fragestellungen bleibt zu klären, inwieweit störungsspezifische Befunde tatsächlich nachweisbar sind, die dann auch zur Differentialdiagnostik herangezogen werden können (oder aber ob es sich um noxenunspezifische Leistungsbeeinträchtigungen handelt). Bei den am häufigsten genannten Aufmerksamkeitsstörungen „erhöhte Ablenkbarkeit“ und „Konzentrationsmangel“ (Spreen, 1978) wird die Bedeutung der zeitlichen Dynamik sofort deutlich.

Page 58: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

58

KURZZEITBEREICH K1

AUFMERKSAMKEIT

ANFORDERUNG A1 K2

ANFORDERUNG A2

Tem ANFORDERUNG A3 K3

Tem LANGZEITBEREICH

Selekti Tempo KONZENTRATION

Integratio Selekti

Tenaz

Integratio

Tenaz

Selektivität

Integrationsfähigkeit

Tenazität

mpo

tivität

nsfähigkeit

RUNG A3

mpo

⇐ ⇒ ⇐ ⇒ Umstellfähigkeit tivität

zität nsfähigkeit

ähigkeit

zität

ähigkeit

Abbildung 20: Differenzierung der Aufmerksamkeit.

Die Abbildung 20 verdeutlicht das mit Bezug auf Zubin (1978) abgeleitete Aufmerksamkeitskonzept. In einem Kurzzeitbereich sind mehrere Anforderungen zu bearbeiten. Tempo, Selektivität und Tenazität sind jeweils anforderungsbezogen zu betrachten. Die Umstellfähigkeit bezieht sich auf den Wechsel zwischen zwei oder mehreren Anforderungen. Bleibt der jeweilige Anforderungs-Bewältigungs-Prozess stabil, so tritt ein Zusammenbruch der Organisation beim Wechsel der Anforderung auf und es kommt zur Interferenz zwischen den einzelnen Anforderungs-Bewältigungs-Prozessen. In der Realität sind es natürlich nicht nur drei Prozesse, die gleichzeitig ablaufen.

Betrachtet man den Verlauf über die Zeit (d.h. über einzelne Kurzzeitbereiche), so kommt ein neuer Aspekt hinzu, nämlich die Aufrechterhaltung dieses Prozesses über längere Zeit. Genau hierin könnte die Spezifik von Konzentration in Abgrenzung zur Aufmerksamkeit liegen. Konzentration in diesem Sinne würde damit die langzeitige Perspektive der Anforderungs-Bewältigung betreffen.

Page 59: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

59

4.3.2 Auswahl von Verfahren

Zwei Prinzipien der Verfahrensauswahl sind einander gegenüberzustellen. Wir unterscheiden grundsätzlich zwischen verifizierendem und explorativem Verfahrenseinsatz (als Analogie zur konfirmatorischen vs. explorativen Datenanalyse). Dabei besteht ein Ziel der diagnostischen Informationsgewinnung darin, die Auswirkung von Störungen auf verschiedenen Datenebenen nachzuweisen und nach charakteristischen Beziehungen bzw. Mustern zwischen diesen Datenebenen zu suchen, welche die Verdachtsdiagnosen verifizieren können, die aufgrund der festgestellten Auffälligkeiten in einer Datenebene in Betracht kommen können.

Bei verifizierenden Anwendungen liegen auf einer Datenebene (z.B. geschilderte Konzentrations- und Gedächtnisstörungen in der Exploration) Hinweise auf eine Störung vor, und es wird ein Korrelat auf anderen Datenebenen (z.B. im Leistungsbereich und in der biographischen Entwicklung) gesucht. Sind in unserem Beispiel objektive Leistungsbeeinträchtigungen und berufliche Versagenssituationen nachweisbar, dann sind die Leistungsbeschwerden anders zu bewerten als bei einem Fehlen dieser Merkmale. Auffälligkeiten in einer Datenebene führen dann zu diagnostischen Hypothesen darüber, welche Auffälligkeiten in anderen Datenebenen vorhanden sein müssen, um eine entsprechende Diagnose zu stellen. Für die Verifikation dieser Hypothesen werden dann diagnostische Instrumente gezielt eingesetzt.

Zu beachten ist, dass die Bedingungen der Untersuchungssituation den Effekt beeinflussen können. Wenn zum Beispiel über eine mangelnde Belastbarkeit während des Arbeitstags geklagt wird, kann eine kurze Untersuchung am Morgen unter Umständen ganz normale Befunde liefern. Dennoch wäre auch dieses Ergebnis nicht ohne Informationswert (die „Werkzeuge“ sind in Ordnung); die Auswirkung einer Belastung wird hier aber nicht verifiziert. Dies kann im konkreten Beispiel durch eine Untersuchung am Nachmittag und ausreichende Dauer der Prüfung besser erreicht werden. Der Nachweis eines Korrelats objektiviert dann in der Regel auch die vorhandenen Hinweise.

Explorative Anwendungen sind demgegenüber nicht durch Befunde aus anderen Bereichen motiviert. Befunde werden erhoben, ohne dass Hypothesen aus anderen Datenebenen vorliegen. Dieses Vorgehen sollte eher die Ausnahme sein. Werden allerdings relevante Befunde auf diese Weise festgestellt, besteht nachträglich die Aufgabe der Verifizierung der Ergebnisse.

Die Verfahrensauswahl muss deshalb immer individuumsbezogen erfolgen, in Hinblick auf alle Datenebenen kann man dennoch eine grundsätzliche Strategie finden. Sie läuft auf die Interpretation von Differenzen (Heterogenität) im Leistungsprofil hinaus (vgl. auch Wolfram et al., 1986; Lehrl, 1983; Lehrl et al., 1990).

Durch die Vereinigung von Urteils- und Leistungsmethoden in einem übergreifenden System der Psychodiagnostik wird auf die Komplexität entsprechender Fragestellungen hingewiesen. Entscheidungen über eine Störung im Leistungsbereich können nur auf dem Hintergrund der vollständigen Person-Umwelt-Interaktion bewertet werden.

So sind beispielsweise in der Leistungsdiagnostik mindestens die folgenden Ebenen psychosozialer Merkmale einzubeziehen:

• Beschwerdenerleben, allgemein und im Leistungsbereich;

• Verhaltensbesonderheiten und Verhaltensauffälligkeiten, die mit gestörter Leistung in Beziehung stehen können, Versagenserleben;

Page 60: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

60

• Auswirkungen auf die Persönlichkeit (Einengungen, Verlust der Anpassungsfähigkeit, Unzufriedenheit);

• Situationsanalyse des Leistungsbereiches, Anforderungsanalyse;

• Leistungsdiagnostik als Prüfung elementarer und komplexer Fähigkeiten.

Der folgende Fragenkatalog dürfte für die meisten leistungsdiagnostischen Fragestellungen relevant sein und enthält Vorschläge, welche Verfahren für bestimmte Aspekte zur Verfügung stehen. In die Entscheidungsfindung selbst sollten, das sei noch einmal betont, alle diagnostischen Informationen (Exploration, Fremdurteile, medizinische Daten) einbezogen werden:

1. Ist die Befindlichkeit allgemein gestört ?

(Wird das Problem subjektiv erlebt?)

Allgemein erhöhtes Beschwerdenerleben BEB, BVND-S, GBB, B-L ...

(Keine spezifische Leistungsstörung)

Spezifische Leistungsbeschwerden c.I.-Skala, BVND-B

(Umschriebene oder allgemeine Leistungsstörung)

2. Entspricht die Intelligenz dem Bildungsniveau ?

(Erwartung für Intelligenz aus Bildungsniveau ableiten)

Erwartung zu verbaler Intelligenz MWT, LPS-1/2, WST

(Interpretation ggf. als „prämorbide Intelligenz“)

Erwartung zu logisch-abstrakter Intelligenz LPS-3, LPS-4, WMT

(Aktuelle Problemlösefähigkeit)

Vergleich beider Intelligenzwerte (Entscheidung über möglichen „Abbau“)

ggf. weitere spezielle Fähigkeiten prüfen ZGR

3. Entspricht die visuelle Merkfähigkeit dem Intelligenzniveau?

(Visuelle Merkfähigkeit häufig zuerst beeinträchtigt)

Lernmenge und Stabilität VIG, BENTON

4. Handelt es sich um eine umschriebene oder um eine allgemeine Gedächtnisstörung?

Lernmenge; Stabilität, Interferenz VEG, MEMO (verbal), ZGR, ZGV (numeral), GSP (Gedächtnisspanne)

5. Ist die Aufmerksamkeit beeinträchtigt?

(Unterscheidung verschiedener Aspekte)

Tempo-Niveau TLT, TLT-K

Aufrechterhaltung (Tenazität) TLT, TLT-K

Selektivität TST

Umstellfähigkeit/Interferenzneigung JZT

Langzeitige Belastbarkeit KRT

Page 61: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

61

6. Ist die Lernfähigkeit beeinträchtigt?

Ausnutzung von Redundanz TLT

Strategiebildung SZT Parameter der Lernfähigkeit sind auch in weiteren Tests enthalten; dabei kann die Lernfähigkeit bereichsspezifisch sein.

Für Verlaufsuntersuchungen und zu Kontrollzwecken liegen für bestimmte Tests Parallelformen (A und B) vor, die unterschiedliches Material unter gleichen Bedingungen prüfen. Dies bezieht sich auf alle Verfahren, bei denen eine Vorkenntnis des Materials einen zusätzlichen Lerneffekt hervorbringen könnte. Bei Wiederholungsmessungen am gleichen Patienten sollte die Auswahl der entsprechenden Formen systematisch variiert werden.

Zusätzlich wird angestrebt, für jedes Merkmal bzw. jeden Bereich einen äquivalenten Test anzubieten, um auffällige Befunde absichern zu können. Dies ist noch nicht durchgängig möglich, wird aber eine Aufgabe für die Zukunft bleiben. Die Verfahren sind den Gruppen zugeordnet, denen ihre Hauptparameter entsprechen. Dies erfolgt in Anlehnung an die herkömmlichen Zuordnungen. Die zusätzlichen Parameter anderer Bereiche werden jeweils erwähnt.

4.3.3 Ergebnisse zu Leistungstests (verfahrensübergreifend)

Zur ersten Orientierung wurde mit den wichtigsten Parametern der Leistungstests eine Sekundärfaktorenanalyse vorgenommen, um ihre Merkmalsstruktur zu identifizieren. Obwohl über 490 Personen berechnet, sind die Verbund-Häufigkeiten zwischen den verschiedenen Tests noch gering (mindestens jedoch 70). Von den untersuchten Personen sind 279 männlich und 211 weiblich, 274 Gesunde und 216 Patienten mit Leistungsstörungen.

Die 6-Faktoren-Lösung ist nach dem Kriterium des 5-%-Varianzanteils favorisiert und wurde Varimax-rotiert (Tabellen 11 und 12).

Tabelle 13: 6-Faktoren-Lösung über die wichtigsten Leistungsparameter.

Faktor Eigenwert Varianzanteil (%) kumulierter Varianzanteil (%)

1 5,58 18,6 18,6

2 3,49 11,7 30,3

3 2,43 8,1 38,4

4 2,10 7,0 45,4

5 1,79 6,0 51,4

6 1,58 5,3 56,6

(7) (1,21) (4,2) (60,8)

Page 62: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

62

Die erhaltene Faktorenstruktur deckt sich mit bekannten faktorenanalytischen Befunden gut, was als Beleg für die Validität gelten kann. Tabelle 14: Varimax-Rotation der Sekundärfaktoren.

F1 F2 F3 F4 F5 F6

Gedächtnisspanne - Richtig gesamt 0,71 0,32 0,34

Symbol-Zahlen-Lerntest – Menge 0,68 0,47

Tempo-Selektions-Test – Gesamtzeit -0,60 -0,54

Tempo-Lern-Test - Tempo-Niveau Gesamt -0,59 -0,44 -0,24

Symbol-Zahlen-Lerntest – Lernwert 0,36 0,22 0,29 -0,36

Übung – Fehlersumme -0,68

Konzentr.-Rechentest - Genauigkeit einzeilig 0,26 0,65 0,45

Konzentr.-Rechentest - Genauigkeit zweizeilig 0,56 0,26 0,24 -0,22

Symbol-Zahlen-Lerntest – Fehler 0,20 -0,54 -0,33

Tempo-Lern-Test – Redundanzdefizit 0,69

Umstell-Interferenz-Test – Interferenz -0,59 0,28

Tempo-Selektions-Test – Zeitverhältnis -0,59

Umstell-Interferenz-Test – Ausgleich -0,48 0,29 0,31

Tempo-Lern-Test – Fokussierung -0,23 -0,43 0,25

Konzentrations-Rechentest – Gesamt zweizeilig

0,26 0,90

LPS-3 Fluide Intelligenz – Punkte 0,26 -0,29 -0,36 0,36 0,36 0,30

MWT-A Kristalline Intelligenz – Punkte 0,32 0,56 0,43

Visuelle Merkfähigkeit – Richtig 0,32 0,60 0,30

Visuelle Merkfähigkeit - Verwechslungen -0,30 0,48 0,31

Zahlengedächtnis Vorwärts – Gesamt 0,79

Verbalgedächtnis - Richtig 0,75

Tempo-Selektions-Test - Fehler -0,30

• Faktor 1 ist ein Geschwindigkeitsfaktor mit Tempo- und Mengenleistungen. Interessanterweise lädt hier die Gedächtnispanne am höchsten (neben Zweitladungen in den „Gedächtnisfaktoren“).

• Faktor 2 ist ein Sorgfalts- bzw. Genauigkeitsfaktor verschiedener Verfahren.

• Faktor 3 enthält Variablen, die kognitive Interferenz bzw. Umstellbarkeit bzw. Lernfähigkeit erfassen. (Dieser Zusammenhang wurde auch theoretisch erläutert.)

• Faktor 4 weist Ladungen in den Intelligenzparametern auf, diese Variablen laden aber in mehreren Faktoren, wie dies in einem hierarchischen Faktorenmodell erwartet wird. Besonders der LPS-3 lädt in allen Faktoren. Die Mengenleistung im zweizeiligen Rechnen zeigt eine enge Beziehung zur Intelligenz.

Page 63: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

63

• Faktor 5 unterstreicht die besondere Stellung der visuellen Merkfähigkeit (bei gleichzeitiger Ladung der fluiden Intelligenz (LPS-3) und der Gedächtnisspanne),

• Faktor 6 wird vor allem durch verbales und Zahlengedächtnis markiert. Andere Gedächtnisvariablen laden allerdings ebenfalls signifikant auf diesem Faktor.

4.3.4 Befunde zur Aufmerksamkeitsdiagnostik

Neben den Verfahren zur Erfassung von Intelligenz- und Gedächtnisleistungen sind eine Reihe von Instrumenten aufgenommen, die sich speziell auf die Objektivierung von Aspekten der Aufmerksamkeit konzentrieren.

Erst wenn der Nachweis erbracht werden kann, dass diese Tests Parameter erfassen, die tatsächlich vom Leistungsaspekt (im Sinne von Intelligenz/Gedächtnis) verschieden sind und sich auch untereinander als relativ unabhängig erweisen, wird ihre Erhebung sinnvoll.

Zu Beginn des Kapitels „Konzepte zur Leistungsdiagnostik“ wurde auf die theoretische Unterscheidung verschiedener Leistungsebenen eingegangen. Auf empirischer Ebene haben wir versucht, die faktorielle Unabhängigkeit einer Reihe von Parametern zu demonstrieren. Berechnet wurde eine Hauptkomponentenanalyse über ausgewählte Variablen der Aufmerksamkeit. Dazu wurde der LPS-3 als Markiervariable einbezogen. Eine 5-Faktoren-Lösung ist nach dem Kriterium des 5-%-Varianzanteils favorisiert. Es zeigt sich, dass auch im Bereich der Aufmerksamkeit unterschiedliche Faktoren identifizierbar sind und nicht nur eine Dimension vorliegt. Neben dem Tempo- (F1) und dem Sorgfaltsfaktor (F3) erweisen sich Verlaufsparameter des Tempo-Lern-Tests (TLT) von besonderer Bedeutung (F2). Des weiteren erscheinen ein gut interpretierbarer Faktor der kognitiven Interferenz bzw. Umstellfähigkeit (F4) sowie ein Faktor, in den sehr verschiedene Leistungsaspekte eingehen (F5).

Page 64: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

64

Tabelle 15: Hauptkomponentenanalyse. Basis: Gesunde (n = 271) und Patienten mit Leistungsstörungen (n = 98).

F1 F2 F3 F4 F5

Symbol-Zahlen-Lerntest – Gesamtleistung 0,86

Umstell-Interferenz-Test (JZT) – Gesamtzeit -0,77 0,20 -0,23

Tempo-Selektions-Test – Gesamtzeit -0,68 0,48 0,30

Übung (UEB) - Reaktionszeit Serie 3 -0,65 -0,35

LPS-3 - Richtig im ersten Versuch 0,63 0,24 -0,25

Konzentrations-Rechentest - Menge zweizeilig 0,59

Tempo-Lern-Test - Tempo-Niveau Gesamt -0,59 0,49 -0,27

Tempo-Lern-Test - Langzeitige Konzentration, gemittelt -0,77

Tempo-Lern-Test - Redundanzdefizit, Serie 2, 1. Hälfte -0,77

Symbol-Zahlen-Lerntest – Fehler 0,68

Konzentrations-Rechentest - Genauigkeit zweizeilig 0,45

Tempo-Selektions-Test – Fehler 0,57 0,36 -0,23

Übung (UEB) – Fehlersumme 0,25 0,47

Symbol-Zahlen-Lerntest - Lernwert Serie 1 (häufig vs. selten) 0,32 -0,28 0,26

Umstell-Interferenz-Test (JZT) – Ausgleichsmass 0,24 0,71

Umstell-Interferenz-Test (JZT) – Interferenzmass -0,67

Tempo-Lern-Test -Fokussierung (kurzes vs. langes ISI) 0,37

Symbol-Zahlen-Lerntest - Lernwert innerhalb der 1. Serie -0,34

Tempo-Lern-Test - Kurzzeit-Tenazität 1. Serie -0,31 0,75

Tempo-Selektions-Test - RT Positive Items/Negative Items 0,59

Page 65: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

65

5 Literatur

Enthält auch weiterführende Literatur

Bartenwerfer, H. (1983). Allgemeine Leistungsdiagnostik. In K.-J. Groffmann & L. Michel

(Hrsg.), Enzyklopädie der Psychologie: Themenbereich B Methodologie und Methoden, Serie II Psychologische Diagnostik, Band 2 Intelligenz- und Leistungsdiagnostik, (S. 482-512). Göttingen: Hogrefe.

Bitterlich, S. & Strauss, M. (1992). [Untersuchungsstichprobe im Fachkrankenhaus „Königin Elisabeth“ Lichtenberk]. Unveröffentlichte Datendokumentation.

Booth, J.F. (1988). Computerdiagnostik. In R.S. Jäger (Hrsg.), Psychologische Diagnostik. Ein Lehrbuch (S.145-152). Weinheim: Psychologie Verlags Union.

Booth, J.F. (1990). Computerdiagnostik: Errungenschaften und Möglichkeiten der Technologie. Diagnostica, 36 (2), 180-203.

Brickenkamp, R. (1981). Aufmerksamkeits-Belastungs-Test d2. Göttingen: Hogrefe. Brickenkamp, R., Merten, T. & Hänsgen, K.-D. (1997). Computerfassung des d2 [Bestandteil

des HTS]. Göttingen: Hogrefe . Broadbent, D.E. (1958). Perception and communication. Oxford: Pergamon Press. Bukasa, B., Kisser, R. & Wenninger, U. (1990). Computergestützte Leistungsdiagnostik bei

verkehrpsychologischen Eignungsuntersuchungen. Diagnostica, 36 (2), 148-165. Carr, A.C. & Ancill, R.J. (1983). Computers in psychiatry. Acta psychiatrica scandinavica, 67

(3), 137-143. Chiang, A. & Atkinson, R.C. (1976). Individual differences and interrelationships among a

select set of cognitive skills. Memory & Cognition 4 (6), 661-672. Ciompi, L. (1984). Gibt es überhaupt eine Schizophrenie? Der Langzeitverlauf psychotischer

Phänomene aus systemischer Sicht. In R. Lempp (Hrsg.), Psychische Entwicklung und Schizophrenie. Die Schizophrenien als funktionelle Regressionen und Reaktionen (S. 15-27). Bern: Huber.

Clauß, G. (1981). Aufmerksamkeit. In G. Clauß, H. Kulka, J. Lompscher, H.-D. Rösler, K.-P. Timpe & G. Vorwerg (Hrsg.), Wörterbuch der Psychologie (3. Aufl.) (S. 56-57). Leipzig: Bibliographisches Institut.

Dzida, W. & Konradt, U. (Hrsg.) (1995). Psychologie des Software-Entwurfs. Göttingen: Verlag für Angewandte Psychologie.

Erdelyi, M.H. (1974). A new look at the new look: Perceptual defense and vigilance. Psychological Review, 81 (1), 1-25.

Fahrenberg, J. (1994). Ambulantes Assessment. Computerunterstützte Datenerfassung unter Alltagsbedingungen. Diagnostica, 40 (3), 195-216.

Fenske, B. (1992). Intelligenzmessung in der Computerdiagnostik. Unveröffentlichte Diplomarbeit, Humboldt-Universität Berlin.

Fischer, G. & Reeves, B. (1992). Beyond intelligent interfaces: Exploring, analyzing and creating success models of cooperative problem solving. Journal of applied Intelligence, 1, 311-332.

Page 66: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

66

Fowler, R.D. (1985). Landmarks in Computer-Assisted Psychological Assessment. Journal of Consulting and Clinical Psychology, 53 (6), 748-759.

Franke, G.H. (1997). Über die Möglichkeiten der computerunterstützten Darbietung beim revidierten Freiburger Persönlichkeitsinventar. Zwei experimentelle Studien. Zeitschrift für Experimentelle Psychologie, 44 (2), 332-356.

Franke, G.H. (1998). Auswirkungen der Computerapplikation beim Freiburger Persönlichkeitsinventar unter besonderer Berücksichtigung der Itemreihenfolge. Eine erste experimentelle Studie. Zeitschrift für Differentielle und Diagnostische Psychologie, 19, 187-199.

Funke, J. (1993). Computergestützte Arbeitsproben: Begriffserklärung, Beispiel sowie Entwicklungspotentiale. Zeitschrift für Arbeits- und Organisationspsychologie, 37 (3), 119-129.

Funke, U. (1993). Computergestützte Eignungsdiagnostik mit komplexen dynamischen Szenarios. Zeitschrift für Arbeits- und Organisationspsychologie, 37 (3), 109-118.

Globerson, T. (1983). Mental capacity and cognitive functioning: developmental and social class differences. Developmental Psychology, 19 (2), 225-230

Gräsel, C. & Mandl, H. (1993). Förderung des Erwerbs diagnostischer Strategien in fallbasierten Lernumgebungen. Unterrichtswissenschaft, 21 (4), 355-369.

Grubitzsch, S. (1991). Testtheorie - Testpraxis. Psychologische Tests und Prüfverfahren im kritischen Überblick. (2. neubearbeitete Aufl.) Reinbek: Rohwohlt.

Guthke, J. (1972). Zur Diagnostik der intellektuellen Lernfähigkeit. Berlin: Deutscher Verlag der Wissenschaften.

Guthke, J. (1980). Ist Intelligenz messbar? Berlin: Deutscher Verlag der Wissenschaften. Guthke, J., Böttcher, H.R. & Sprung, L. (1990-1991). Psychodiagnostik. Ein Lehrbuch für

Psychologen sowie empirisch arbeitende Humanwissenschaftler. 2 Bände. Berlin: Deutscher Verlag der Wissenschaften.

Guthke, J., Räder, E., Caruso, M. & Schmidt, K.D. (1991). Entwicklung eines adaptiven computergestützten Lerntests auf der Basis der strukturellen Informationstheorie. Diagnostica, 37 (1), 1-28.

Guthke, J., Schaarschmidt, U. & Sprung, L. (1983). Psychodiagnostik - gesellschaftliche Anforderungen, Trends, methodologische Probleme und Strategien. Psychologie für die Praxis 1, 54-65.

Hageböck, J. (1990). PSYMEDIA: Ein Computer-Programsystem für die psychometrische Einzelfalldiagnostik. Diagnostica, 36 (2), 220-227.

Hageböck, J. (1994). Computerunterstütze Diagnostik in der Psychologie. Die Entwicklung eines computergestützten Diagnosesystems für die Einzelfallhilfe in der Schulpsychologie. Göttingen: Hogrefe.

Hänsgen, K.-D. (1992). Empirische Klassifikationsforschung in der Psychodiagnostik – Konzepte und empirische Überprüfungen. Zeitschrift für differentielle und diagnostische Psychologie, 13 (1), 1-20.

Hasselmann, D. (1993). Computersimulierte komplexe Problemstellungen in der Management-Diagnostik. Hamburg: Windmühle Verlag.

Page 67: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

67

Hilke, R. (1993). Computerunterstützte Eignungsdiagnostik im Psychologischen Dienst der Bundesanstalt für Arbeit. Zeitschrift für Arbeits- und Organisationspsychologie, 37 (3), 138-141.

Hoffmann, F. (1989). Normierung des BVCD. Unveröffentlichte Diplomarbeit, Humboldt-Universität, Berlin.

Hornke, L.F. (1982). Testdiagnostische Untersuchungsstrategien. In K.-J. Groffmann & L. Michel (Hrsg.), Grundlagen psychologischer Diagnostik (S. 130-172). Göttingen: Hogrefe.

Hornke, L.F. (1994). Erfahrungen mit der computergestützten Diagnostik im Leistungsbereich. In D. Bartussek & M. Amelang (Hrsg.), Fortschritte der differentiellen Psychologie und psychologischen Diagnostik (S. 321-32). Göttingen: Hogrefe.

Huber, G. (1982). Endogene Psychosen: Diagnostik, Basissymptome und biologische Parameter. Stuttgart: Schattauer.

Jackson, D.N. (1985). Computer-based Personality Testing. Computers in Human Behavior, 1 (3-4), 255-264.

Jackson, N.E. & Myers, M.G. (1982). Letter naming time, digit span and precocious reading achievement. Intelligence 6 (3), 311-329.

Kay, A. (1984). Microelectronics and the Personal Computer. Spektrum der Wissenschaft, 11, 230-245.

Kay, A. (1984). Software. Spektrum der Wissenschaft, 11, 34-43. Klieme, E. & Stumpf, H. (1990). Computereinsatz in der pädagogisch-psychologischen

Diagnostik. In K. Ingenkamp & R.S. Jäger (Hrsg.), Test und Trends. 8. Jahrbuch der Pädagogischen Diagnostik (S. 13-63). Weinheim: Beltz.

Krieger, W. (1993). Ein computergestütztes Explorationsverfahren zur Erfassung von psychosozialen Anforderungen und Ressourcen am Arbeitsplatz. Diagnostica, 39 (1), 63-79.

Kubinger, K.D. (1995). Einführung in die Psychologische Diagnostik. Weinheim: Psychologie Verlags Union.

Lissmann, U. (1990). Computerunterstützte qualitative Analyse. Diagnostica, 36 (2), 115-126. Lehrl, S., Gallwitz, A., Blaha L. & Fischer, B. (1990). Die allgemeinen Basisgrößen der

Informationsverarbeitung. Grundlagen und Kurztest KAI. Ebersberg: Vless. Maurer, K., Löffler, W., Kühner, Ch., Ilg, Ch. & Biehl, H. (1990). Psychodiagnostik und

Expertensysteme: Der Vergleich operationaliserter DSM-III-Computer-Diagnosen mit CATEGO-ICD-Diagnosen bei schizophrenen und affektiven Störungen. Diagnostica, 36 (2), 166-179.

Meehl, P.E. (1954). Clinical vs. statistical prediction. A theoretical analysis and a review of the evidence. Minneapolis: University of Minnesota Press.

Merten, T. & Ruch, W. (1996). A comparison of computerized and conventional administration of the German versions of the Eysenck Personality Questionnaire and the Carroll RatingSscale for Depression. Personality and Individual Differences, 20 (3), 281-291.

Moser, K., Selig, J.G. & Rebstock, M. (1990). Durchführungsvarianten bei einem computerunterstützten Leistungstest. Diagnostica, 36 (4), 321-328.

Page 68: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

68

Murer, K. (1996). Theorieansätze zur konzentrativen Leistung und deren Messung. Untersuchung zum Einsatz von zwei Computertestversionen (Hänsgen & Merten, 1994) entsprechend der Konzeption des Aufmerksamkeits-Belastungs-Tests d2 (Brickenkamp, 1962, 1994). Unveröffentlichte Lizentiatsarbeit, Universität Freiburg (CH).

Neisser, U. (1976). Cognition and reality. Principles and implications of cognitive psychology. San Francisco: W.H. Freeman.

Ohlrich, B. (1989). Normierung einer Computertestbatterie zur Erfassung von Gedächtnisstörungen. Unveröffentlichte Diplomarbeit, Humboldt-Universität Berlin.

Patan, C. (1990). Computerdiagnostische Erfassung von Aufmerksamkeitsstörungen bei Kindern. Unveröffentlichte Diplomarbeit, Humboldt-Universität Berlin.

Perrez, M. (1994). Felddiagnostik mit besonderer Berücksichtigung der computerunterstützten Diagnostik. In R.D. Stieglitz & U. Baumann (Hrsg.), Psychodiagnostik psychischer Störungen (S. 149-161). Stuttgart: Ferdinand Enke.

Perrez, M. (1994). Cognitive appraisals as antecedents of emotions and coping: Analysed under real life conditions. In D. Bartussek & M. Amelang (Hrsg.), Fortschritte der differentiellen Psychologie und psychologischen Diagnostik (S. 345-354). Göttingen: Hogrefe.

Roest, F. & Horn, R. (1990). Mailbox – 90: Computerunterstützte Diagnostik im Assessment-Center. Diagnostica, 36 (2), 213-219.

Rosenfeldt, B (1990). Kognitive Organisation bei psychotischen Erkrankungen. Unveröffentlichte Dissertation, Humboldt-Universität Berlin.

Rosenfeldt, B. & Hänsgen, K.-D. (1992). Syndromspezifische Kognition – Artefakt von Gruppenmittelwertsvergleichen? Differentialdiagnostische Untersuchungen zu visuellen Suchprozessen schizophrener Patienten. Schizophrenie, 7, 12-21.

Shneiderman, B. (1981). A note on the human factors issues of natural language interaction with database systems. Information systems 6, 2, 125-129.

Spitz, H.H. (1972) Note on immediate memory for digits: Invariance over the years. Psychological Bulletin, 78, 183-185.

Spreen, O. (1978). Neuropsychologische Störungen. In L. Pongratz (Hrsg.), Handbuch der Psychologie, Band 8/2. Göttingen: Hogrefe.

Sprung, L. & Sprung, H. (1984). Grundlagen der Methodologie und Methodik der Psychologie. Eine Einführung in die Forschungs- und Diagnosemethodik für empirisch arbeitende Humanwissenschaftler. Berlin: Deutscher Verlag der Wissenschaften.

Stout, R.L. (1981). New approaches to the design of computerized interviewing and testing systems. Behavior Research Methods and Instrumentation, 13 (4), 436-442.

Taeger, W. (1991). Untersuchung von Intelligenzvariablen mittels Computer. Unveröffentlichte Diplomarbeit, Humboldt-Universität Berlin.

Testkuratorium der Förderation Deutscher Psychologenvereinigungen (1986). Richtlinien für den Einsatz Elektronischer Datenverarbeitung in der psychologischen Diagnostik. Psychologische Rundschau, 37, 163-165.

Waldmann, M. & Weinert, F.E. (1990). Intelligenz und Denken. Perspektiven der Hochbegabtenforschung. Göttingen: Hogrefe.

Westhoff, K. & Kluck, M.L. (1984). Ansätze einer Theorie konzentrativer Leistungen. Diagnostica, 30 (3), 167-183.

Page 69: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

69

Wottawa, H. (1993). Zu diesem Heft. Zeitschrift für Arbeits- und Organisationspsychologie, Themenheft ”Computerunterstützte Diagnostik", 37, 108.

Wolfram, H., Neumann, J. & Wieczorek, V. (1986). Psychologische Leistungstests in der Neurologie und Psychiatrie. Methoden und Normwerte. Leipzig: Thieme.

Zubin, J. (1978). Problems of attention in schizophrenia. In M.L. Kietzman, S. Suttons, & J. Zubin

(Hrsg.), Experimental approaches to psychopathology. New York: Academic Press.

Page 70: Früherere Teil 2 des Handbuches mit allgemeineren Ausführungen

Hogrefe TestSystem Systemhandbuch

70

6 Index Antwortzeit 25 Aufmerksamkeitsdiagnostik 62 Bearbeitete Computertests 14 computerbasierte Diagnostik

Merkmalsgüte 9 Urteilsgüte 9 Wissens-Transfer 10 Zeitökonomische Vorteile 10

computerbasierte Tests 4 Grundregeln 4

computerspezifische Tests 20 Computerversionen herkömmlicher Tests 14 Diagnoseprozess 30 Diagnostikand 4 Diagnostiker 4 Eingabetraining 44 Entwicklung des Testsystems 6 Fairness-Kriterium 11 Hogrefe TestFactory 6 Instruktion 4 Internet 32

konventionelle Tests 20 Leistungsdiagnostik 49 Mausübung 44 Optionen für Fragebögen 46 Originäre Computertests 14 Parameter 27 Probandentastatur 13 Sozialdateneingabe 45 Testangst 13 Testautoren 35

Autoren 6 Testentwicklung 35 Testerleben 45 Übungsprogramm 41 Vergleichbarkeit 11 Vernetzung 32 Vorhersagbarkeit 12 Weiterentwicklung von Tests 20

fragebogenartige Verfahren 20 Leistungstests 21